aboutsummaryrefslogtreecommitdiffhomepage
diff options
context:
space:
mode:
authorGravatar Mike Klein <mtklein@chromium.org>2017-09-14 20:40:51 -0400
committerGravatar Skia Commit-Bot <skia-commit-bot@chromium.org>2017-09-15 15:20:53 +0000
commit3bf6366c6fc5d619358458e50909b60deb4cfe4a (patch)
treebfc08514bd5fcdc14dd0ad39822ca05df15e7fb3
parentfd4d60eac06132c6993e0c3e0da205b2b2fce88a (diff)
clean up SK_JUMPER_LEGACY_8BIT
Change-Id: I4d4093fcfc839f6e7468b7d9f89bb903186ab68d Reviewed-on: https://skia-review.googlesource.com/46761 Reviewed-by: Florin Malita <fmalita@chromium.org> Commit-Queue: Mike Klein <mtklein@chromium.org>
-rw-r--r--BUILD.gn1
-rw-r--r--src/jumper/SkJumper.cpp96
-rw-r--r--src/jumper/SkJumper_generated.S20683
-rw-r--r--src/jumper/SkJumper_generated_win.S20376
-rw-r--r--src/jumper/SkJumper_stages_8bit.cpp480
-rwxr-xr-xsrc/jumper/build_stages.py39
6 files changed, 5813 insertions, 35862 deletions
diff --git a/BUILD.gn b/BUILD.gn
index 9b46480f61..bf57a64327 100644
--- a/BUILD.gn
+++ b/BUILD.gn
@@ -1803,7 +1803,6 @@ if (skia_jumper_clang != "") {
inputs = [
"src/jumper/SkJumper_stages.cpp",
- "src/jumper/SkJumper_stages_8bit.cpp",
"src/jumper/SkJumper_stages_lowp.cpp",
]
diff --git a/src/jumper/SkJumper.cpp b/src/jumper/SkJumper.cpp
index 028222ab03..6890ec387a 100644
--- a/src/jumper/SkJumper.cpp
+++ b/src/jumper/SkJumper.cpp
@@ -61,7 +61,7 @@ using StartPipelineFn = void(size_t,size_t,size_t,size_t, void**);
#define ASM(name, suffix) _sk_##name##_##suffix
#endif
-// Some stages have 8-bit versions from SkJumper_stages_8bit.cpp.
+// Some stages have 8-bit versions from SkJumper_stages_lowp.cpp.
#define LOWP_STAGES(M) \
M(black_color) M(white_color) M(uniform_color) \
M(set_rgb) \
@@ -117,9 +117,6 @@ extern "C" {
ASM(start_pipeline, avx),
ASM(start_pipeline, sse41),
ASM(start_pipeline, sse2),
- ASM(start_pipeline, hsw_8bit),
- ASM(start_pipeline,sse41_8bit),
- ASM(start_pipeline, sse2_8bit),
ASM(start_pipeline, hsw_lowp),
ASM(start_pipeline,sse41_lowp),
ASM(start_pipeline, sse2_lowp);
@@ -128,9 +125,6 @@ extern "C" {
ASM(just_return, avx),
ASM(just_return, sse41),
ASM(just_return, sse2),
- ASM(just_return, hsw_8bit),
- ASM(just_return,sse41_8bit),
- ASM(just_return, sse2_8bit),
ASM(just_return, hsw_lowp),
ASM(just_return,sse41_lowp),
ASM(just_return, sse2_lowp);
@@ -142,10 +136,7 @@ extern "C" {
SK_RASTER_PIPELINE_STAGES(M)
#undef M
- #define M(st) StageFn ASM(st, hsw_8bit), \
- ASM(st,sse41_8bit), \
- ASM(st, sse2_8bit), \
- ASM(st, hsw_lowp), \
+ #define M(st) StageFn ASM(st, hsw_lowp), \
ASM(st,sse41_lowp), \
ASM(st, sse2_lowp);
LOWP_STAGES(M)
@@ -153,13 +144,10 @@ extern "C" {
#elif defined(__i386__) || defined(_M_IX86)
StartPipelineFn ASM(start_pipeline,sse2),
- ASM(start_pipeline,sse2_8bit),
ASM(start_pipeline,sse2_lowp);
StageFn ASM(just_return,sse2),
- ASM(just_return,sse2_8bit),
ASM(just_return,sse2_lowp);
#define M(st) StageFn ASM(st,sse2), \
- ASM(st,sse2_8bit), \
ASM(st,sse2_lowp);
SK_RASTER_PIPELINE_STAGES(M)
#undef M
@@ -194,53 +182,29 @@ extern "C" {
template <SkRasterPipeline::StockStage st>
static constexpr StageFn* sse2_lowp() { return nullptr; }
- #if defined(SK_JUMPER_LEGACY_LOWP)
- #define M(st) \
- template <> constexpr StageFn* hsw_lowp<SkRasterPipeline::st>() { \
- return ASM(st,hsw_8bit); \
- } \
- template <> constexpr StageFn* sse41_lowp<SkRasterPipeline::st>() { \
- return ASM(st,sse41_8bit); \
- } \
- template <> constexpr StageFn* sse2_lowp<SkRasterPipeline::st>() { \
- return ASM(st,sse2_8bit); \
- }
- LOWP_STAGES(M)
- #undef M
- #else
- #define M(st) \
- template <> constexpr StageFn* hsw_lowp<SkRasterPipeline::st>() { \
- return ASM(st,hsw_lowp); \
- } \
- template <> constexpr StageFn* sse41_lowp<SkRasterPipeline::st>() { \
- return ASM(st,sse41_lowp); \
- } \
- template <> constexpr StageFn* sse2_lowp<SkRasterPipeline::st>() { \
- return ASM(st,sse2_lowp); \
- }
- LOWP_STAGES(M)
- #undef M
- #endif
+ #define M(st) \
+ template <> constexpr StageFn* hsw_lowp<SkRasterPipeline::st>() { \
+ return ASM(st,hsw_lowp); \
+ } \
+ template <> constexpr StageFn* sse41_lowp<SkRasterPipeline::st>() { \
+ return ASM(st,sse41_lowp); \
+ } \
+ template <> constexpr StageFn* sse2_lowp<SkRasterPipeline::st>() { \
+ return ASM(st,sse2_lowp); \
+ }
+ LOWP_STAGES(M)
+ #undef M
#elif defined(__i386__) || defined(_M_IX86)
template <SkRasterPipeline::StockStage st>
static constexpr StageFn* sse2_lowp() { return nullptr; }
- #if defined(SK_JUMPER_LEGACY_LOWP)
- #define M(st) \
- template <> constexpr StageFn* sse2_lowp<SkRasterPipeline::st>() { \
- return ASM(st,sse2_8bit); \
- }
- LOWP_STAGES(M)
- #undef M
- #else
- #define M(st) \
- template <> constexpr StageFn* sse2_lowp<SkRasterPipeline::st>() { \
- return ASM(st,sse2_lowp); \
- }
- LOWP_STAGES(M)
- #undef M
- #endif
+ #define M(st) \
+ template <> constexpr StageFn* sse2_lowp<SkRasterPipeline::st>() { \
+ return ASM(st,sse2_lowp); \
+ }
+ LOWP_STAGES(M)
+ #undef M
#elif defined(JUMPER_NEON_HAS_LOWP)
template <SkRasterPipeline::StockStage st>
@@ -357,13 +321,8 @@ static SkJumper_Engine choose_engine() {
return {
#define M(st) hsw_lowp<SkRasterPipeline::st>(),
{ SK_RASTER_PIPELINE_STAGES(M) },
- #if defined(SK_JUMPER_LEGACY_LOWP)
- ASM(start_pipeline,hsw_8bit),
- ASM(just_return ,hsw_8bit),
- #else
ASM(start_pipeline,hsw_lowp),
ASM(just_return ,hsw_lowp),
- #endif
#undef M
};
}
@@ -371,13 +330,8 @@ static SkJumper_Engine choose_engine() {
return {
#define M(st) sse41_lowp<SkRasterPipeline::st>(),
{ SK_RASTER_PIPELINE_STAGES(M) },
- #if defined(SK_JUMPER_LEGACY_LOWP)
- ASM(start_pipeline,sse41_8bit),
- ASM(just_return ,sse41_8bit),
- #else
ASM(start_pipeline,sse41_lowp),
ASM(just_return ,sse41_lowp),
- #endif
#undef M
};
}
@@ -385,13 +339,8 @@ static SkJumper_Engine choose_engine() {
return {
#define M(st) sse2_lowp<SkRasterPipeline::st>(),
{ SK_RASTER_PIPELINE_STAGES(M) },
- #if defined(SK_JUMPER_LEGACY_LOWP)
- ASM(start_pipeline,sse2_8bit),
- ASM(just_return ,sse2_8bit),
- #else
ASM(start_pipeline,sse2_lowp),
ASM(just_return ,sse2_lowp),
- #endif
#undef M
};
}
@@ -400,13 +349,8 @@ static SkJumper_Engine choose_engine() {
return {
#define M(st) sse2_lowp<SkRasterPipeline::st>(),
{ SK_RASTER_PIPELINE_STAGES(M) },
- #if defined(SK_JUMPER_LEGACY_LOWP)
- ASM(start_pipeline,sse2_8bit),
- ASM(just_return ,sse2_8bit),
- #else
ASM(start_pipeline,sse2_lowp),
ASM(just_return ,sse2_lowp),
- #endif
#undef M
};
}
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 4be9d3a51b..17cbf25201 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -9384,14 +9384,14 @@ _sk_seed_shader_hsw:
.byte 197,249,110,194 // vmovd %edx,%xmm0
.byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,150,44,3,0 // vaddps 0x32c96(%rip),%ymm0,%ymm0 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0x2c4>
+ .byte 197,252,88,5,214,149,2,0 // vaddps 0x295d6(%rip),%ymm0,%ymm0 # 29680 <_sk_srcover_rgba_8888_sse2_lowp+0x2c4>
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,68,54,3,0 // vbroadcastss 0x33644(%rip),%ymm2 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,226,125,24,21,36,155,2,0 // vbroadcastss 0x29b24(%rip),%ymm2 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,57,54,3,0 // vbroadcastss 0x33639(%rip),%ymm2 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,21,25,155,2,0 // vbroadcastss 0x29b19(%rip),%ymm2 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -9406,17 +9406,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,104,44,3,0 // vpaddd 0x32c68(%rip),%ymm8,%ymm8 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
+ .byte 197,61,254,5,168,149,2,0 // vpaddd 0x295a8(%rip),%ymm8,%ymm8 # 296a0 <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,253,53,3,0 // vpbroadcastd 0x335fd(%rip),%ymm10 # 3370c <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 196,98,125,88,21,221,154,2,0 // vpbroadcastd 0x29add(%rip),%ymm10 # 29bec <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,226,53,3,0 // vpbroadcastd 0x335e2(%rip),%ymm12 # 33710 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
- .byte 196,98,125,88,45,221,53,3,0 // vpbroadcastd 0x335dd(%rip),%ymm13 # 33714 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ .byte 196,98,125,88,37,194,154,2,0 // vpbroadcastd 0x29ac2(%rip),%ymm12 # 29bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
+ .byte 196,98,125,88,45,189,154,2,0 // vpbroadcastd 0x29abd(%rip),%ymm13 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -9431,8 +9431,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,143,53,3,0 // vbroadcastss 0x3358f(%rip),%ymm9 # 33718 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
- .byte 196,98,125,24,21,138,53,3,0 // vbroadcastss 0x3358a(%rip),%ymm10 # 3371c <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 196,98,125,24,13,111,154,2,0 // vbroadcastss 0x29a6f(%rip),%ymm9 # 29bf8 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
+ .byte 196,98,125,24,21,106,154,2,0 // vbroadcastss 0x29a6a(%rip),%ymm10 # 29bfc <_sk_srcover_rgba_8888_sse2_lowp+0x840>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -9466,7 +9466,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,18,53,3,0 // vbroadcastss 0x33512(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,242,153,2,0 // vbroadcastss 0x299f2(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -9477,7 +9477,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,249,52,3,0 // vbroadcastss 0x334f9(%rip),%ymm0 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,5,217,153,2,0 // vbroadcastss 0x299d9(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -9523,7 +9523,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,152,52,3,0 // vbroadcastss 0x33498(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,120,153,2,0 // vbroadcastss 0x29978(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -9539,7 +9539,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,103,52,3,0 // vbroadcastss 0x33467(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,71,153,2,0 // vbroadcastss 0x29947(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -9578,7 +9578,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,10,52,3,0 // vbroadcastss 0x3340a(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,234,152,2,0 // vbroadcastss 0x298ea(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9591,7 +9591,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,233,51,3,0 // vbroadcastss 0x333e9(%rip),%ymm0 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,5,201,152,2,0 // vbroadcastss 0x298c9(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -9604,7 +9604,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,200,51,3,0 // vbroadcastss 0x333c8(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,168,152,2,0 // vbroadcastss 0x298a8(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -9617,7 +9617,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,163,51,3,0 // vbroadcastss 0x333a3(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,131,152,2,0 // vbroadcastss 0x29883(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -9641,7 +9641,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,106,51,3,0 // vbroadcastss 0x3336a(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,74,152,2,0 // vbroadcastss 0x2984a(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9664,7 +9664,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,25,51,3,0 // vbroadcastss 0x33319(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,249,151,2,0 // vbroadcastss 0x297f9(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -9694,7 +9694,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,196,50,3,0 // vbroadcastss 0x332c4(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,164,151,2,0 // vbroadcastss 0x297a4(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9728,7 +9728,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,72,50,3,0 // vbroadcastss 0x33248(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,40,151,2,0 // vbroadcastss 0x29728(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9753,7 +9753,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,243,49,3,0 // vbroadcastss 0x331f3(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,211,150,2,0 // vbroadcastss 0x296d3(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9781,7 +9781,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,146,49,3,0 // vbroadcastss 0x33192(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,114,150,2,0 // vbroadcastss 0x29672(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9803,7 +9803,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,76,49,3,0 // vbroadcastss 0x3314c(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,44,150,2,0 // vbroadcastss 0x2962c(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9813,7 +9813,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,54,49,3,0 // vbroadcastss 0x33136(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,22,150,2,0 // vbroadcastss 0x29616(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -9871,7 +9871,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,70,48,3,0 // vbroadcastss 0x33046(%rip),%ymm9 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,13,38,149,2,0 // vbroadcastss 0x29526(%rip),%ymm9 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -9924,7 +9924,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,96,47,3,0 // vbroadcastss 0x32f60(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,64,148,2,0 // vbroadcastss 0x29440(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9975,7 +9975,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,148,46,3,0 // vbroadcastss 0x32e94(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,116,147,2,0 // vbroadcastss 0x29374(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -10036,10 +10036,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,175,45,3,0 // vbroadcastss 0x32daf(%rip),%ymm11 # 33720 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 196,98,125,24,29,143,146,2,0 // vbroadcastss 0x2928f(%rip),%ymm11 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,160,45,3,0 // vbroadcastss 0x32da0(%rip),%ymm12 # 33724 <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
+ .byte 196,98,125,24,37,128,146,2,0 // vbroadcastss 0x29280(%rip),%ymm12 # 29c04 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -10049,7 +10049,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,79,45,3,0 // vbroadcastss 0x32d4f(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,47,146,2,0 // vbroadcastss 0x2922f(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -10162,11 +10162,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,103,43,3,0 // vbroadcastss 0x32b67(%rip),%ymm14 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
- .byte 196,98,125,24,61,98,43,3,0 // vbroadcastss 0x32b62(%rip),%ymm15 # 3372c <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 196,98,125,24,53,71,144,2,0 // vbroadcastss 0x29047(%rip),%ymm14 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,61,66,144,2,0 // vbroadcastss 0x29042(%rip),%ymm15 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,83,43,3,0 // vbroadcastss 0x32b53(%rip),%ymm0 # 33730 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 196,226,125,24,5,51,144,2,0 // vbroadcastss 0x29033(%rip),%ymm0 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -10221,7 +10221,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,20,42,3,0 // vbroadcastss 0x32a14(%rip),%ymm1 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,13,244,142,2,0 // vbroadcastss 0x28ef4(%rip),%ymm1 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10275,11 +10275,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,71,41,3,0 // vbroadcastss 0x32947(%rip),%ymm14 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
- .byte 196,98,125,24,61,66,41,3,0 // vbroadcastss 0x32942(%rip),%ymm15 # 3372c <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 196,98,125,24,53,39,142,2,0 // vbroadcastss 0x28e27(%rip),%ymm14 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,61,34,142,2,0 // vbroadcastss 0x28e22(%rip),%ymm15 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,51,41,3,0 // vbroadcastss 0x32933(%rip),%ymm0 # 33730 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 196,226,125,24,5,19,142,2,0 // vbroadcastss 0x28e13(%rip),%ymm0 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -10334,7 +10334,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,244,39,3,0 // vbroadcastss 0x327f4(%rip),%ymm1 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,13,212,140,2,0 // vbroadcastss 0x28cd4(%rip),%ymm1 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10362,11 +10362,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,169,39,3,0 // vbroadcastss 0x327a9(%rip),%ymm13 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
- .byte 196,98,125,24,53,164,39,3,0 // vbroadcastss 0x327a4(%rip),%ymm14 # 3372c <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 196,98,125,24,45,137,140,2,0 // vbroadcastss 0x28c89(%rip),%ymm13 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,53,132,140,2,0 // vbroadcastss 0x28c84(%rip),%ymm14 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,149,39,3,0 // vbroadcastss 0x32795(%rip),%ymm15 # 33730 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 196,98,125,24,61,117,140,2,0 // vbroadcastss 0x28c75(%rip),%ymm15 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -10422,7 +10422,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,75,38,3,0 // vbroadcastss 0x3264b(%rip),%ymm0 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,5,43,139,2,0 // vbroadcastss 0x28b2b(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -10450,11 +10450,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,0,38,3,0 // vbroadcastss 0x32600(%rip),%ymm13 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
- .byte 196,98,125,24,53,251,37,3,0 // vbroadcastss 0x325fb(%rip),%ymm14 # 3372c <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 196,98,125,24,45,224,138,2,0 // vbroadcastss 0x28ae0(%rip),%ymm13 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,53,219,138,2,0 // vbroadcastss 0x28adb(%rip),%ymm14 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,236,37,3,0 // vbroadcastss 0x325ec(%rip),%ymm15 # 33730 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 196,98,125,24,61,204,138,2,0 // vbroadcastss 0x28acc(%rip),%ymm15 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -10510,7 +10510,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,162,36,3,0 // vbroadcastss 0x324a2(%rip),%ymm0 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,5,130,137,2,0 // vbroadcastss 0x28982(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -10541,17 +10541,17 @@ _sk_srcover_rgba_8888_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,179,0,0,0 // jne 137b <_sk_srcover_rgba_8888_hsw+0xd3>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,170,26,3,0 // vpand 0x31aaa(%rip),%ymm7,%ymm4 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0x304>
+ .byte 197,197,219,37,234,131,2,0 // vpand 0x283ea(%rip),%ymm7,%ymm4 # 296c0 <_sk_srcover_rgba_8888_sse2_lowp+0x304>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,189,26,3,0 // vpshufb 0x31abd(%rip),%ymm7,%ymm5 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0x324>
+ .byte 196,226,69,0,45,253,131,2,0 // vpshufb 0x283fd(%rip),%ymm7,%ymm5 # 296e0 <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,208,26,3,0 // vpshufb 0x31ad0(%rip),%ymm7,%ymm6 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0x344>
+ .byte 196,226,69,0,53,16,132,2,0 // vpshufb 0x28410(%rip),%ymm7,%ymm6 # 29700 <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,2,36,3,0 // vbroadcastss 0x32402(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,226,136,2,0 // vbroadcastss 0x288e2(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,33,36,3,0 // vbroadcastss 0x32421(%rip),%ymm9 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,13,1,137,2,0 // vbroadcastss 0x28901(%rip),%ymm9 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -10679,7 +10679,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,14,34,3,0 // vbroadcastss 0x3220e(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,238,134,2,0 // vbroadcastss 0x286ee(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -10691,7 +10691,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,237,33,3,0 // vbroadcastss 0x321ed(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,205,134,2,0 // vbroadcastss 0x286cd(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -10703,7 +10703,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,207,33,3,0 // vbroadcastss 0x321cf(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,175,134,2,0 // vbroadcastss 0x286af(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -10736,7 +10736,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,138,33,3,0 // vbroadcastss 0x3218a(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,106,134,2,0 // vbroadcastss 0x2866a(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -10792,7 +10792,7 @@ FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,26,33,3,0 // vbroadcastss 0x3211a(%rip),%ymm10 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,21,250,133,2,0 // vbroadcastss 0x285fa(%rip),%ymm10 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -10805,16 +10805,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,39,33,3,0 // vbroadcastss 0x32127(%rip),%ymm8 # 33738 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
+ .byte 196,98,125,24,5,7,134,2,0 // vbroadcastss 0x28607(%rip),%ymm8 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,25,33,3,0 // vbroadcastss 0x32119(%rip),%ymm11 # 3373c <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
- .byte 196,98,125,24,37,252,32,3,0 // vbroadcastss 0x320fc(%rip),%ymm12 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ .byte 196,98,125,24,29,249,133,2,0 // vbroadcastss 0x285f9(%rip),%ymm11 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+ .byte 196,98,125,24,37,220,133,2,0 // vbroadcastss 0x285dc(%rip),%ymm12 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,1,33,3,0 // vbroadcastss 0x32101(%rip),%ymm14 # 33740 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 196,98,125,24,53,225,133,2,0 // vbroadcastss 0x285e1(%rip),%ymm14 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,247,32,3,0 // vbroadcastss 0x320f7(%rip),%ymm10 # 33744 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
+ .byte 196,98,125,24,21,215,133,2,0 // vbroadcastss 0x285d7(%rip),%ymm10 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -10837,16 +10837,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,143,32,3,0 // vbroadcastss 0x3208f(%rip),%ymm8 # 33738 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
+ .byte 196,98,125,24,5,111,133,2,0 // vbroadcastss 0x2856f(%rip),%ymm8 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,129,32,3,0 // vbroadcastss 0x32081(%rip),%ymm11 # 3373c <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
- .byte 196,98,125,24,37,100,32,3,0 // vbroadcastss 0x32064(%rip),%ymm12 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ .byte 196,98,125,24,29,97,133,2,0 // vbroadcastss 0x28561(%rip),%ymm11 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+ .byte 196,98,125,24,37,68,133,2,0 // vbroadcastss 0x28544(%rip),%ymm12 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,105,32,3,0 // vbroadcastss 0x32069(%rip),%ymm14 # 33740 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 196,98,125,24,53,73,133,2,0 // vbroadcastss 0x28549(%rip),%ymm14 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,95,32,3,0 // vbroadcastss 0x3205f(%rip),%ymm10 # 33744 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
+ .byte 196,98,125,24,21,63,133,2,0 // vbroadcastss 0x2853f(%rip),%ymm10 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -10870,19 +10870,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,3,32,3,0 // vbroadcastss 0x32003(%rip),%ymm8 # 33748 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 196,98,125,24,5,227,132,2,0 // vbroadcastss 0x284e3(%rip),%ymm8 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,249,31,3,0 // vbroadcastss 0x31ff9(%rip),%ymm11 # 3374c <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
- .byte 196,98,125,24,37,244,31,3,0 // vbroadcastss 0x31ff4(%rip),%ymm12 # 33750 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 196,98,125,24,29,217,132,2,0 // vbroadcastss 0x284d9(%rip),%ymm11 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+ .byte 196,98,125,24,37,212,132,2,0 // vbroadcastss 0x284d4(%rip),%ymm12 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,229,31,3,0 // vbroadcastss 0x31fe5(%rip),%ymm14 # 33754 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 196,98,125,24,53,197,132,2,0 // vbroadcastss 0x284c5(%rip),%ymm14 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,219,31,3,0 // vbroadcastss 0x31fdb(%rip),%ymm15 # 33758 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 196,98,125,24,61,187,132,2,0 // vbroadcastss 0x284bb(%rip),%ymm15 # 29c38 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,199,31,3,0 // vbroadcastss 0x31fc7(%rip),%ymm13 # 3375c <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 196,98,125,24,45,167,132,2,0 // vbroadcastss 0x284a7(%rip),%ymm13 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x880>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -10916,26 +10916,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,226,30,3,0 // vbroadcastss 0x31ee2(%rip),%ymm11 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,29,194,131,2,0 // vbroadcastss 0x283c2(%rip),%ymm11 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,35,31,3,0 // vbroadcastss 0x31f23(%rip),%ymm14 # 33760 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 196,98,125,24,53,3,132,2,0 // vbroadcastss 0x28403(%rip),%ymm14 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,10,31,3,0 // vbroadcastss 0x31f0a(%rip),%ymm14 # 33768 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 196,98,125,24,53,234,131,2,0 // vbroadcastss 0x283ea(%rip),%ymm14 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,248,30,3,0 // vbroadcastss 0x31ef8(%rip),%ymm14 # 33764 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 196,98,125,24,53,216,131,2,0 // vbroadcastss 0x283d8(%rip),%ymm14 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,111,30,3,0 // vbroadcastss 0x31e6f(%rip),%ymm11 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,29,79,131,2,0 // vbroadcastss 0x2834f(%rip),%ymm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -10945,7 +10945,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,158,30,3,0 // vbroadcastss 0x31e9e(%rip),%ymm8 # 3376c <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 196,98,125,24,5,126,131,2,0 // vbroadcastss 0x2837e(%rip),%ymm8 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10962,30 +10962,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,251,29,3,0 // vbroadcastss 0x31dfb(%rip),%ymm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,5,219,130,2,0 // vbroadcastss 0x282db(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,58,30,3,0 // vbroadcastss 0x31e3a(%rip),%ymm9 # 33764 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 196,98,125,24,13,26,131,2,0 // vbroadcastss 0x2831a(%rip),%ymm9 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,56,30,3,0 // vbroadcastss 0x31e38(%rip),%ymm11 # 33770 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 196,98,125,24,29,24,131,2,0 // vbroadcastss 0x28318(%rip),%ymm11 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,10,30,3,0 // vbroadcastss 0x31e0a(%rip),%ymm13 # 33760 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 196,98,125,24,45,234,130,2,0 // vbroadcastss 0x282ea(%rip),%ymm13 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,4,30,3,0 // vbroadcastss 0x31e04(%rip),%ymm14 # 33768 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 196,98,125,24,53,228,130,2,0 // vbroadcastss 0x282e4(%rip),%ymm14 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,254,29,3,0 // vbroadcastss 0x31dfe(%rip),%ymm3 # 33774 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ .byte 196,226,125,24,29,222,130,2,0 // vbroadcastss 0x282de(%rip),%ymm3 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,213,29,3,0 // vbroadcastss 0x31dd5(%rip),%ymm12 # 3376c <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 196,98,125,24,37,181,130,2,0 // vbroadcastss 0x282b5(%rip),%ymm12 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -11001,7 +11001,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,137,29,3,0 // vbroadcastss 0x31d89(%rip),%ymm0 # 33778 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ .byte 196,226,125,24,5,105,130,2,0 // vbroadcastss 0x28269(%rip),%ymm0 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -11055,10 +11055,10 @@ _sk_scale_u8_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,58 // jne 1ade <_sk_scale_u8_hsw+0x52>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,14,30,3,0 // vpand 0x31e0e(%rip),%xmm8,%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,57,219,5,206,130,2,0 // vpand 0x282ce(%rip),%xmm8,%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,183,28,3,0 // vbroadcastss 0x31cb7(%rip),%ymm9 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,13,151,129,2,0 // vbroadcastss 0x28197(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -11107,7 +11107,7 @@ _sk_scale_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf001b88 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefcf10c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf001b88 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd87cc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11133,20 +11133,20 @@ _sk_scale_565_hsw:
.byte 15,133,161,0,0,0 // jne 1c54 <_sk_scale_565_hsw+0xc0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,185,27,3,0 // vpbroadcastd 0x31bb9(%rip),%ymm9 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 196,98,125,88,13,153,128,2,0 // vpbroadcastd 0x28099(%rip),%ymm9 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,170,27,3,0 // vbroadcastss 0x31baa(%rip),%ymm10 # 33784 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ .byte 196,98,125,24,21,138,128,2,0 // vbroadcastss 0x2808a(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,160,27,3,0 // vpbroadcastd 0x31ba0(%rip),%ymm10 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 196,98,125,88,21,128,128,2,0 // vpbroadcastd 0x28080(%rip),%ymm10 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,145,27,3,0 // vbroadcastss 0x31b91(%rip),%ymm11 # 3378c <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 196,98,125,24,29,113,128,2,0 // vbroadcastss 0x28071(%rip),%ymm11 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,135,27,3,0 // vpbroadcastd 0x31b87(%rip),%ymm11 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 196,98,125,88,29,103,128,2,0 // vpbroadcastd 0x28067(%rip),%ymm11 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,120,27,3,0 // vbroadcastss 0x31b78(%rip),%ymm11 # 33794 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 196,98,125,24,29,88,128,2,0 // vbroadcastss 0x28058(%rip),%ymm11 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11237,10 +11237,10 @@ _sk_lerp_u8_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,78 // jne 1d8d <_sk_lerp_u8_hsw+0x66>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,115,27,3,0 // vpand 0x31b73(%rip),%xmm8,%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,57,219,5,51,128,2,0 // vpand 0x28033(%rip),%xmm8,%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,28,26,3,0 // vbroadcastss 0x31a1c(%rip),%ymm9 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,13,252,126,2,0 // vbroadcastss 0x27efc(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -11292,7 +11292,7 @@ _sk_lerp_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde001e38 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfcf3bc>
+ .byte 232,255,255,255,221 // callq ffffffffde001e38 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd8a7c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -11318,20 +11318,20 @@ _sk_lerp_565_hsw:
.byte 15,133,181,0,0,0 // jne 1f18 <_sk_lerp_565_hsw+0xd4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,9,25,3,0 // vpbroadcastd 0x31909(%rip),%ymm9 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 196,98,125,88,13,233,125,2,0 // vpbroadcastd 0x27de9(%rip),%ymm9 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,250,24,3,0 // vbroadcastss 0x318fa(%rip),%ymm10 # 33784 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ .byte 196,98,125,24,21,218,125,2,0 // vbroadcastss 0x27dda(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,240,24,3,0 // vpbroadcastd 0x318f0(%rip),%ymm10 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 196,98,125,88,21,208,125,2,0 // vpbroadcastd 0x27dd0(%rip),%ymm10 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,225,24,3,0 // vbroadcastss 0x318e1(%rip),%ymm11 # 3378c <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 196,98,125,24,29,193,125,2,0 // vbroadcastss 0x27dc1(%rip),%ymm11 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,215,24,3,0 // vpbroadcastd 0x318d7(%rip),%ymm11 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 196,98,125,88,29,183,125,2,0 // vpbroadcastd 0x27db7(%rip),%ymm11 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,200,24,3,0 // vbroadcastss 0x318c8(%rip),%ymm11 # 33794 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 196,98,125,24,29,168,125,2,0 // vbroadcastss 0x27da8(%rip),%ymm11 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11405,7 +11405,7 @@ _sk_load_tables_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,116 // jne 203a <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,12,14,3,0 // vpand 0x30e0c(%rip),%ymm3,%ymm1 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0x364>
+ .byte 197,229,219,13,76,119,2,0 // vpand 0x2774c(%rip),%ymm3,%ymm1 # 29720 <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -11413,16 +11413,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,3,14,3,0 // vpshufb 0x30e03(%rip),%ymm3,%ymm9 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0x384>
+ .byte 196,98,101,0,13,67,119,2,0 // vpshufb 0x27743(%rip),%ymm3,%ymm9 # 29740 <_sk_srcover_rgba_8888_sse2_lowp+0x384>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,7,14,3,0 // vpshufb 0x30e07(%rip),%ymm3,%ymm9 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0x3a4>
+ .byte 196,98,101,0,13,71,119,2,0 // vpshufb 0x27747(%rip),%ymm3,%ymm9 # 29760 <_sk_srcover_rgba_8888_sse2_lowp+0x3a4>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,75,23,3,0 // vbroadcastss 0x3174b(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,43,124,2,0 // vbroadcastss 0x27c2b(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11503,7 +11503,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,84,23,3,0 // vmovdqa 0x31754(%rip),%xmm11 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,121,111,29,20,124,2,0 // vmovdqa 0x27c14(%rip),%xmm11 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -11528,7 +11528,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,176,21,3,0 // vbroadcastss 0x315b0(%rip),%ymm8 # 33798 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ .byte 196,98,125,24,5,144,122,2,0 // vbroadcastss 0x27a90(%rip),%ymm8 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11588,7 +11588,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,212,21,3,0 // vmovdqa 0x315d4(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,249,111,29,148,122,2,0 // vmovdqa 0x27a94(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -11608,7 +11608,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,189,19,3,0 // vbroadcastss 0x313bd(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,157,120,2,0 // vbroadcastss 0x2789d(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
@@ -11677,7 +11677,7 @@ HIDDEN _sk_byte_tables_hsw
FUNCTION(_sk_byte_tables_hsw)
_sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,178,18,3,0 // vbroadcastss 0x312b2(%rip),%ymm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,5,146,119,2,0 // vbroadcastss 0x27792(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -11807,7 +11807,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,128,16,3,0 // vbroadcastss 0x31080(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,96,117,2,0 // vbroadcastss 0x27560(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -11929,7 +11929,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,84,14,3,0 // vbroadcastss 0x30e54(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,52,115,2,0 // vbroadcastss 0x27334(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -12032,33 +12032,33 @@ _sk_parametric_r_hsw:
.byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,58,13,3,0 // vbroadcastss 0x30d3a(%rip),%ymm12 # 3379c <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
- .byte 196,98,125,24,45,53,13,3,0 // vbroadcastss 0x30d35(%rip),%ymm13 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 196,98,125,24,37,26,114,2,0 // vbroadcastss 0x2721a(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,45,21,114,2,0 // vbroadcastss 0x27215(%rip),%ymm13 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,139,12,3,0 // vbroadcastss 0x30c8b(%rip),%ymm13 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,45,107,113,2,0 // vbroadcastss 0x2716b(%rip),%ymm13 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,29,13,3,0 // vbroadcastss 0x30d1d(%rip),%ymm13 # 337a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ .byte 196,98,125,24,45,253,113,2,0 // vbroadcastss 0x271fd(%rip),%ymm13 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,19,13,3,0 // vbroadcastss 0x30d13(%rip),%ymm11 # 337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 196,98,125,24,29,243,113,2,0 // vbroadcastss 0x271f3(%rip),%ymm11 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,9,13,3,0 // vbroadcastss 0x30d09(%rip),%ymm12 # 337ac <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 196,98,125,24,37,233,113,2,0 // vbroadcastss 0x271e9(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,255,12,3,0 // vbroadcastss 0x30cff(%rip),%ymm12 # 337b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 196,98,125,24,37,223,113,2,0 // vbroadcastss 0x271df(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,224,12,3,0 // vbroadcastss 0x30ce0(%rip),%ymm11 # 337b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 196,98,125,24,29,192,113,2,0 // vbroadcastss 0x271c0(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,214,12,3,0 // vbroadcastss 0x30cd6(%rip),%ymm11 # 337b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ .byte 196,98,125,24,29,182,113,2,0 // vbroadcastss 0x271b6(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11
- .byte 196,226,125,24,5,204,12,3,0 // vbroadcastss 0x30ccc(%rip),%ymm0 # 337bc <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 196,226,125,24,5,172,113,2,0 // vbroadcastss 0x271ac(%rip),%ymm0 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,194,12,3,0 // vbroadcastss 0x30cc2(%rip),%ymm10 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 196,98,125,24,21,162,113,2,0 // vbroadcastss 0x271a2(%rip),%ymm10 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0
.byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,21,181,12,3,0 // vbroadcastss 0x30cb5(%rip),%ymm10 # 337c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ .byte 196,98,125,24,21,149,113,2,0 // vbroadcastss 0x27195(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12066,7 +12066,7 @@ _sk_parametric_r_hsw:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,205,11,3,0 // vbroadcastss 0x30bcd(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,173,112,2,0 // vbroadcastss 0x270ad(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12086,33 +12086,33 @@ _sk_parametric_g_hsw:
.byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,21,12,3,0 // vbroadcastss 0x30c15(%rip),%ymm12 # 3379c <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
- .byte 196,98,125,24,45,16,12,3,0 // vbroadcastss 0x30c10(%rip),%ymm13 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 196,98,125,24,37,245,112,2,0 // vbroadcastss 0x270f5(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,45,240,112,2,0 // vbroadcastss 0x270f0(%rip),%ymm13 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,102,11,3,0 // vbroadcastss 0x30b66(%rip),%ymm13 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,45,70,112,2,0 // vbroadcastss 0x27046(%rip),%ymm13 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,248,11,3,0 // vbroadcastss 0x30bf8(%rip),%ymm13 # 337a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ .byte 196,98,125,24,45,216,112,2,0 // vbroadcastss 0x270d8(%rip),%ymm13 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,238,11,3,0 // vbroadcastss 0x30bee(%rip),%ymm11 # 337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 196,98,125,24,29,206,112,2,0 // vbroadcastss 0x270ce(%rip),%ymm11 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,228,11,3,0 // vbroadcastss 0x30be4(%rip),%ymm12 # 337ac <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 196,98,125,24,37,196,112,2,0 // vbroadcastss 0x270c4(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,218,11,3,0 // vbroadcastss 0x30bda(%rip),%ymm12 # 337b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 196,98,125,24,37,186,112,2,0 // vbroadcastss 0x270ba(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,187,11,3,0 // vbroadcastss 0x30bbb(%rip),%ymm11 # 337b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 196,98,125,24,29,155,112,2,0 // vbroadcastss 0x2709b(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,177,11,3,0 // vbroadcastss 0x30bb1(%rip),%ymm11 # 337b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ .byte 196,98,125,24,29,145,112,2,0 // vbroadcastss 0x27091(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11
- .byte 196,226,125,24,13,167,11,3,0 // vbroadcastss 0x30ba7(%rip),%ymm1 # 337bc <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 196,226,125,24,13,135,112,2,0 // vbroadcastss 0x27087(%rip),%ymm1 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,157,11,3,0 // vbroadcastss 0x30b9d(%rip),%ymm10 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 196,98,125,24,21,125,112,2,0 // vbroadcastss 0x2707d(%rip),%ymm10 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,98,125,24,21,144,11,3,0 // vbroadcastss 0x30b90(%rip),%ymm10 # 337c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ .byte 196,98,125,24,21,112,112,2,0 // vbroadcastss 0x27070(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12120,7 +12120,7 @@ _sk_parametric_g_hsw:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,168,10,3,0 // vbroadcastss 0x30aa8(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,136,111,2,0 // vbroadcastss 0x26f88(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12140,33 +12140,33 @@ _sk_parametric_b_hsw:
.byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,240,10,3,0 // vbroadcastss 0x30af0(%rip),%ymm12 # 3379c <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
- .byte 196,98,125,24,45,235,10,3,0 // vbroadcastss 0x30aeb(%rip),%ymm13 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 196,98,125,24,37,208,111,2,0 // vbroadcastss 0x26fd0(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,45,203,111,2,0 // vbroadcastss 0x26fcb(%rip),%ymm13 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,65,10,3,0 // vbroadcastss 0x30a41(%rip),%ymm13 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,45,33,111,2,0 // vbroadcastss 0x26f21(%rip),%ymm13 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,211,10,3,0 // vbroadcastss 0x30ad3(%rip),%ymm13 # 337a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ .byte 196,98,125,24,45,179,111,2,0 // vbroadcastss 0x26fb3(%rip),%ymm13 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,201,10,3,0 // vbroadcastss 0x30ac9(%rip),%ymm11 # 337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 196,98,125,24,29,169,111,2,0 // vbroadcastss 0x26fa9(%rip),%ymm11 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,191,10,3,0 // vbroadcastss 0x30abf(%rip),%ymm12 # 337ac <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 196,98,125,24,37,159,111,2,0 // vbroadcastss 0x26f9f(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,181,10,3,0 // vbroadcastss 0x30ab5(%rip),%ymm12 # 337b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 196,98,125,24,37,149,111,2,0 // vbroadcastss 0x26f95(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,150,10,3,0 // vbroadcastss 0x30a96(%rip),%ymm11 # 337b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 196,98,125,24,29,118,111,2,0 // vbroadcastss 0x26f76(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,140,10,3,0 // vbroadcastss 0x30a8c(%rip),%ymm11 # 337b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ .byte 196,98,125,24,29,108,111,2,0 // vbroadcastss 0x26f6c(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11
- .byte 196,226,125,24,21,130,10,3,0 // vbroadcastss 0x30a82(%rip),%ymm2 # 337bc <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 196,226,125,24,21,98,111,2,0 // vbroadcastss 0x26f62(%rip),%ymm2 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,120,10,3,0 // vbroadcastss 0x30a78(%rip),%ymm10 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 196,98,125,24,21,88,111,2,0 // vbroadcastss 0x26f58(%rip),%ymm10 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,98,125,24,21,107,10,3,0 // vbroadcastss 0x30a6b(%rip),%ymm10 # 337c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ .byte 196,98,125,24,21,75,111,2,0 // vbroadcastss 0x26f4b(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12174,7 +12174,7 @@ _sk_parametric_b_hsw:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,131,9,3,0 // vbroadcastss 0x30983(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,99,110,2,0 // vbroadcastss 0x26e63(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12194,33 +12194,33 @@ _sk_parametric_a_hsw:
.byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,203,9,3,0 // vbroadcastss 0x309cb(%rip),%ymm12 # 3379c <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
- .byte 196,98,125,24,45,198,9,3,0 // vbroadcastss 0x309c6(%rip),%ymm13 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 196,98,125,24,37,171,110,2,0 // vbroadcastss 0x26eab(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,45,166,110,2,0 // vbroadcastss 0x26ea6(%rip),%ymm13 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,28,9,3,0 // vbroadcastss 0x3091c(%rip),%ymm13 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,45,252,109,2,0 // vbroadcastss 0x26dfc(%rip),%ymm13 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,174,9,3,0 // vbroadcastss 0x309ae(%rip),%ymm13 # 337a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ .byte 196,98,125,24,45,142,110,2,0 // vbroadcastss 0x26e8e(%rip),%ymm13 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,164,9,3,0 // vbroadcastss 0x309a4(%rip),%ymm11 # 337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 196,98,125,24,29,132,110,2,0 // vbroadcastss 0x26e84(%rip),%ymm11 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,154,9,3,0 // vbroadcastss 0x3099a(%rip),%ymm12 # 337ac <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 196,98,125,24,37,122,110,2,0 // vbroadcastss 0x26e7a(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,144,9,3,0 // vbroadcastss 0x30990(%rip),%ymm12 # 337b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 196,98,125,24,37,112,110,2,0 // vbroadcastss 0x26e70(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,113,9,3,0 // vbroadcastss 0x30971(%rip),%ymm11 # 337b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 196,98,125,24,29,81,110,2,0 // vbroadcastss 0x26e51(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,103,9,3,0 // vbroadcastss 0x30967(%rip),%ymm11 # 337b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ .byte 196,98,125,24,29,71,110,2,0 // vbroadcastss 0x26e47(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11
- .byte 196,226,125,24,29,93,9,3,0 // vbroadcastss 0x3095d(%rip),%ymm3 # 337bc <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 196,226,125,24,29,61,110,2,0 // vbroadcastss 0x26e3d(%rip),%ymm3 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,83,9,3,0 // vbroadcastss 0x30953(%rip),%ymm10 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 196,98,125,24,21,51,110,2,0 // vbroadcastss 0x26e33(%rip),%ymm10 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3
.byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3
- .byte 196,98,125,24,21,70,9,3,0 // vbroadcastss 0x30946(%rip),%ymm10 # 337c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ .byte 196,98,125,24,21,38,110,2,0 // vbroadcastss 0x26e26(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12228,7 +12228,7 @@ _sk_parametric_a_hsw:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,94,8,3,0 // vbroadcastss 0x3085e(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,62,109,2,0 // vbroadcastss 0x26d3e(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12247,35 +12247,35 @@ _sk_gamma_hsw:
.byte 197,252,40,241 // vmovaps %ymm1,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,177,8,3,0 // vbroadcastss 0x308b1(%rip),%ymm11 # 3379c <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
- .byte 196,226,125,24,45,172,8,3,0 // vbroadcastss 0x308ac(%rip),%ymm5 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 196,98,125,24,29,145,109,2,0 // vbroadcastss 0x26d91(%rip),%ymm11 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,226,125,24,45,140,109,2,0 // vbroadcastss 0x26d8c(%rip),%ymm5 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 197,124,84,205 // vandps %ymm5,%ymm0,%ymm9
- .byte 196,226,125,24,37,3,8,3,0 // vbroadcastss 0x30803(%rip),%ymm4 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,226,125,24,37,227,108,2,0 // vbroadcastss 0x26ce3(%rip),%ymm4 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,52,86,228 // vorps %ymm4,%ymm9,%ymm12
- .byte 196,98,125,24,45,150,8,3,0 // vbroadcastss 0x30896(%rip),%ymm13 # 337a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ .byte 196,98,125,24,45,118,109,2,0 // vbroadcastss 0x26d76(%rip),%ymm13 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
- .byte 196,98,125,24,13,140,8,3,0 // vbroadcastss 0x3088c(%rip),%ymm9 # 337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 196,98,125,24,13,108,109,2,0 // vbroadcastss 0x26d6c(%rip),%ymm9 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,66,29,188,209 // vfnmadd231ps %ymm9,%ymm12,%ymm10
.byte 197,124,91,246 // vcvtdq2ps %ymm6,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,255 // vcvtdq2ps %ymm7,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,98,125,24,29,112,8,3,0 // vbroadcastss 0x30870(%rip),%ymm11 # 337ac <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 196,98,125,24,29,80,109,2,0 // vbroadcastss 0x26d50(%rip),%ymm11 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
- .byte 196,98,125,24,45,102,8,3,0 // vbroadcastss 0x30866(%rip),%ymm13 # 337b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 196,98,125,24,45,70,109,2,0 // vbroadcastss 0x26d46(%rip),%ymm13 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
.byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
.byte 196,67,125,8,194,1 // vroundps $0x1,%ymm10,%ymm8
.byte 196,65,44,92,192 // vsubps %ymm8,%ymm10,%ymm8
- .byte 196,226,125,24,21,66,8,3,0 // vbroadcastss 0x30842(%rip),%ymm2 # 337b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 196,226,125,24,21,34,109,2,0 // vbroadcastss 0x26d22(%rip),%ymm2 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 197,44,88,210 // vaddps %ymm2,%ymm10,%ymm10
- .byte 196,226,125,24,29,57,8,3,0 // vbroadcastss 0x30839(%rip),%ymm3 # 337b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ .byte 196,226,125,24,29,25,109,2,0 // vbroadcastss 0x26d19(%rip),%ymm3 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,98,61,188,211 // vfnmadd231ps %ymm3,%ymm8,%ymm10
- .byte 196,226,125,24,13,47,8,3,0 // vbroadcastss 0x3082f(%rip),%ymm1 # 337bc <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 196,226,125,24,13,15,109,2,0 // vbroadcastss 0x26d0f(%rip),%ymm1 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,5,37,8,3,0 // vbroadcastss 0x30825(%rip),%ymm0 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 196,226,125,24,5,5,109,2,0 // vbroadcastss 0x26d05(%rip),%ymm0 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,65,124,94,192 // vdivps %ymm8,%ymm0,%ymm8
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 197,204,84,245 // vandps %ymm5,%ymm6,%ymm6
@@ -12306,7 +12306,7 @@ _sk_gamma_hsw:
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
.byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
.byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 196,226,125,24,13,150,7,3,0 // vbroadcastss 0x30796(%rip),%ymm1 # 337c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ .byte 196,226,125,24,13,118,108,2,0 // vbroadcastss 0x26c76(%rip),%ymm1 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 197,188,89,209 // vmulps %ymm1,%ymm8,%ymm2
.byte 197,204,89,217 // vmulps %ymm1,%ymm6,%ymm3
.byte 197,252,89,225 // vmulps %ymm1,%ymm0,%ymm4
@@ -12326,26 +12326,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,84,7,3,0 // vbroadcastss 0x30754(%rip),%ymm8 # 337c8 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
- .byte 196,98,125,24,13,183,6,3,0 // vbroadcastss 0x306b7(%rip),%ymm9 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 196,98,125,24,21,70,7,3,0 // vbroadcastss 0x30746(%rip),%ymm10 # 337cc <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 196,98,125,24,5,52,108,2,0 // vbroadcastss 0x26c34(%rip),%ymm8 # 29ca8 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,13,151,107,2,0 // vbroadcastss 0x26b97(%rip),%ymm9 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,21,38,108,2,0 // vbroadcastss 0x26c26(%rip),%ymm10 # 29cac <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,55,7,3,0 // vbroadcastss 0x30737(%rip),%ymm9 # 337d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 196,98,125,24,13,23,108,2,0 // vbroadcastss 0x26c17(%rip),%ymm9 # 29cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,45,7,3,0 // vbroadcastss 0x3072d(%rip),%ymm0 # 337d4 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
+ .byte 196,226,125,24,5,13,108,2,0 // vbroadcastss 0x26c0d(%rip),%ymm0 # 29cb4 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,36,7,3,0 // vbroadcastss 0x30724(%rip),%ymm8 # 337d8 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
+ .byte 196,98,125,24,5,4,108,2,0 // vbroadcastss 0x26c04(%rip),%ymm8 # 29cb8 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,26,7,3,0 // vbroadcastss 0x3071a(%rip),%ymm9 # 337dc <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 196,98,125,24,13,250,107,2,0 // vbroadcastss 0x26bfa(%rip),%ymm9 # 29cbc <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,7,7,3,0 // vbroadcastss 0x30707(%rip),%ymm2 # 337e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 196,226,125,24,21,231,107,2,0 // vbroadcastss 0x26be7(%rip),%ymm2 # 29cc0 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,253,6,3,0 // vbroadcastss 0x306fd(%rip),%ymm11 # 337e4 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
+ .byte 196,98,125,24,29,221,107,2,0 // vbroadcastss 0x26bdd(%rip),%ymm11 # 29cc4 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,243,6,3,0 // vbroadcastss 0x306f3(%rip),%ymm12 # 337e8 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
+ .byte 196,98,125,24,37,211,107,2,0 // vbroadcastss 0x26bd3(%rip),%ymm12 # 29cc8 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -12360,9 +12360,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,168,6,3,0 // vbroadcastss 0x306a8(%rip),%ymm0 # 337ec <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 196,226,125,24,5,136,107,2,0 // vbroadcastss 0x26b88(%rip),%ymm0 # 29ccc <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,159,6,3,0 // vbroadcastss 0x3069f(%rip),%ymm8 # 337f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 196,98,125,24,5,127,107,2,0 // vbroadcastss 0x26b7f(%rip),%ymm8 # 29cd0 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12380,10 +12380,10 @@ _sk_load_a8_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,52 // jne 31a6 <_sk_load_a8_hsw+0x4c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,64,7,3,0 // vpand 0x30740(%rip),%xmm0,%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,249,219,5,0,108,2,0 // vpand 0x26c00(%rip),%xmm0,%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,234,5,3,0 // vbroadcastss 0x305ea(%rip),%ymm1 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,13,202,106,2,0 // vbroadcastss 0x26aca(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -12456,10 +12456,10 @@ _sk_load_a8_dst_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,52 // jne 32a4 <_sk_load_a8_dst_hsw+0x4c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,66,6,3,0 // vpand 0x30642(%rip),%xmm4,%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,217,219,37,2,107,2,0 // vpand 0x26b02(%rip),%xmm4,%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,236,4,3,0 // vbroadcastss 0x304ec(%rip),%ymm5 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,45,204,105,2,0 // vbroadcastss 0x269cc(%rip),%ymm5 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -12507,7 +12507,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00334c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd08d0>
+ .byte 232,255,255,255,221 // callq ffffffffde00334c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd9f90>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -12564,7 +12564,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,96,3,3,0 // vbroadcastss 0x30360(%rip),%ymm1 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,13,64,104,2,0 // vbroadcastss 0x26840(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -12586,7 +12586,7 @@ _sk_store_a8_hsw:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,225,2,3,0 // vbroadcastss 0x302e1(%rip),%ymm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,5,193,103,2,0 // vbroadcastss 0x267c1(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -12611,13 +12611,13 @@ _sk_store_a8_hsw:
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
.byte 235,202 // jmp 3477 <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,18,4,3,0 // vpshufb 0x30412(%rip),%xmm8,%xmm8 # 338d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
+ .byte 196,98,57,0,5,210,104,2,0 // vpshufb 0x268d2(%rip),%xmm8,%xmm8 # 29d90 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
.byte 235,176 // jmp 3477 <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,248,3,3,0 // vpshufb 0x303f8(%rip),%xmm8,%xmm8 # 338e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 196,98,57,0,5,184,104,2,0 // vpshufb 0x268b8(%rip),%xmm8,%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
.byte 235,135 // jmp 3477 <_sk_store_a8_hsw+0x40>
.byte 180,255 // mov $0xff,%ah
@@ -12653,13 +12653,13 @@ _sk_load_g8_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,57 // jne 355d <_sk_load_g8_hsw+0x51>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,142,3,3,0 // vpand 0x3038e(%rip),%xmm0,%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,249,219,5,78,104,2,0 // vpand 0x2684e(%rip),%xmm0,%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,56,2,3,0 // vbroadcastss 0x30238(%rip),%ymm1 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,13,24,103,2,0 // vbroadcastss 0x26718(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,181,1,3,0 // vbroadcastss 0x301b5(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,149,102,2,0 // vbroadcastss 0x26695(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -12704,7 +12704,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf003604 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd0b88>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf003604 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefda248>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -12728,13 +12728,13 @@ _sk_load_g8_dst_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,57 // jne 3661 <_sk_load_g8_dst_hsw+0x51>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,138,2,3,0 // vpand 0x3028a(%rip),%xmm4,%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,217,219,37,74,103,2,0 // vpand 0x2674a(%rip),%xmm4,%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,52,1,3,0 // vbroadcastss 0x30134(%rip),%ymm5 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,45,20,102,2,0 // vbroadcastss 0x26614(%rip),%ymm5 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,177,0,3,0 // vbroadcastss 0x300b1(%rip),%ymm7 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,61,145,101,2,0 // vbroadcastss 0x26591(%rip),%ymm7 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -12779,7 +12779,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf003708 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd0c8c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf003708 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefda34c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -12836,10 +12836,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,164,255,2,0 // vbroadcastss 0x2ffa4(%rip),%ymm1 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,13,132,100,2,0 // vbroadcastss 0x26484(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,33,255,2,0 // vbroadcastss 0x2ff21(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,1,100,2,0 // vbroadcastss 0x26401(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -12863,23 +12863,23 @@ _sk_load_565_hsw:
.byte 117,114 // jne 3885 <_sk_load_565_hsw+0x8d>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,89,255,2,0 // vpbroadcastd 0x2ff59(%rip),%ymm0 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 196,226,125,88,5,57,100,2,0 // vpbroadcastd 0x26439(%rip),%ymm0 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,76,255,2,0 // vbroadcastss 0x2ff4c(%rip),%ymm1 # 33784 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ .byte 196,226,125,24,13,44,100,2,0 // vbroadcastss 0x2642c(%rip),%ymm1 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,67,255,2,0 // vpbroadcastd 0x2ff43(%rip),%ymm1 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 196,226,125,88,13,35,100,2,0 // vpbroadcastd 0x26423(%rip),%ymm1 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,54,255,2,0 // vbroadcastss 0x2ff36(%rip),%ymm3 # 3378c <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 196,226,125,24,29,22,100,2,0 // vbroadcastss 0x26416(%rip),%ymm3 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,45,255,2,0 // vpbroadcastd 0x2ff2d(%rip),%ymm3 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 196,226,125,88,29,13,100,2,0 // vpbroadcastd 0x2640d(%rip),%ymm3 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,32,255,2,0 // vbroadcastss 0x2ff20(%rip),%ymm3 # 33794 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 196,226,125,24,29,0,100,2,0 // vbroadcastss 0x26400(%rip),%ymm3 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,133,254,2,0 // vbroadcastss 0x2fe85(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,101,99,2,0 // vbroadcastss 0x26365(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -12945,23 +12945,23 @@ _sk_load_565_dst_hsw:
.byte 117,114 // jne 39b1 <_sk_load_565_dst_hsw+0x8d>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,45,254,2,0 // vpbroadcastd 0x2fe2d(%rip),%ymm4 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 196,226,125,88,37,13,99,2,0 // vpbroadcastd 0x2630d(%rip),%ymm4 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,32,254,2,0 // vbroadcastss 0x2fe20(%rip),%ymm5 # 33784 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ .byte 196,226,125,24,45,0,99,2,0 // vbroadcastss 0x26300(%rip),%ymm5 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,23,254,2,0 // vpbroadcastd 0x2fe17(%rip),%ymm5 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 196,226,125,88,45,247,98,2,0 // vpbroadcastd 0x262f7(%rip),%ymm5 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,10,254,2,0 // vbroadcastss 0x2fe0a(%rip),%ymm7 # 3378c <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 196,226,125,24,61,234,98,2,0 // vbroadcastss 0x262ea(%rip),%ymm7 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,1,254,2,0 // vpbroadcastd 0x2fe01(%rip),%ymm7 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 196,226,125,88,61,225,98,2,0 // vpbroadcastd 0x262e1(%rip),%ymm7 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,244,253,2,0 // vbroadcastss 0x2fdf4(%rip),%ymm7 # 33794 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 196,226,125,24,61,212,98,2,0 // vbroadcastss 0x262d4(%rip),%ymm7 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,89,253,2,0 // vbroadcastss 0x2fd59(%rip),%ymm7 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,61,57,98,2,0 // vbroadcastss 0x26239(%rip),%ymm7 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -13057,23 +13057,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,117,252,2,0 // vpbroadcastd 0x2fc75(%rip),%ymm0 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 196,226,125,88,5,85,97,2,0 // vpbroadcastd 0x26155(%rip),%ymm0 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,104,252,2,0 // vbroadcastss 0x2fc68(%rip),%ymm1 # 33784 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ .byte 196,226,125,24,13,72,97,2,0 // vbroadcastss 0x26148(%rip),%ymm1 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,95,252,2,0 // vpbroadcastd 0x2fc5f(%rip),%ymm1 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 196,226,125,88,13,63,97,2,0 // vpbroadcastd 0x2613f(%rip),%ymm1 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,82,252,2,0 // vbroadcastss 0x2fc52(%rip),%ymm3 # 3378c <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 196,226,125,24,29,50,97,2,0 // vbroadcastss 0x26132(%rip),%ymm3 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,73,252,2,0 // vpbroadcastd 0x2fc49(%rip),%ymm3 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 196,226,125,88,29,41,97,2,0 // vpbroadcastd 0x26129(%rip),%ymm3 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,60,252,2,0 // vbroadcastss 0x2fc3c(%rip),%ymm3 # 33794 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 196,226,125,24,29,28,97,2,0 // vbroadcastss 0x2611c(%rip),%ymm3 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,161,251,2,0 // vbroadcastss 0x2fba1(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,129,96,2,0 // vbroadcastss 0x26081(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -13091,11 +13091,11 @@ _sk_store_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,101,252,2,0 // vbroadcastss 0x2fc65(%rip),%ymm8 # 337f4 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
+ .byte 196,98,125,24,5,69,97,2,0 // vbroadcastss 0x26145(%rip),%ymm8 # 29cd4 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 196,98,125,24,21,80,252,2,0 // vbroadcastss 0x2fc50(%rip),%ymm10 # 337f8 <_sk_srcover_rgba_8888_sse2_lowp+0xd7c>
+ .byte 196,98,125,24,21,48,97,2,0 // vbroadcastss 0x26130(%rip),%ymm10 # 29cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
@@ -13170,25 +13170,25 @@ _sk_load_4444_hsw:
.byte 15,133,138,0,0,0 // jne 3d09 <_sk_load_4444_hsw+0xa9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,105,251,2,0 // vpbroadcastd 0x2fb69(%rip),%ymm0 # 337fc <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 196,226,125,88,5,73,96,2,0 // vpbroadcastd 0x26049(%rip),%ymm0 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,92,251,2,0 // vbroadcastss 0x2fb5c(%rip),%ymm1 # 33800 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 196,226,125,24,13,60,96,2,0 // vbroadcastss 0x2603c(%rip),%ymm1 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,83,251,2,0 // vpbroadcastd 0x2fb53(%rip),%ymm1 # 33804 <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ .byte 196,226,125,88,13,51,96,2,0 // vpbroadcastd 0x26033(%rip),%ymm1 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,70,251,2,0 // vbroadcastss 0x2fb46(%rip),%ymm2 # 33808 <_sk_srcover_rgba_8888_sse2_lowp+0xd8c>
+ .byte 196,226,125,24,21,38,96,2,0 // vbroadcastss 0x26026(%rip),%ymm2 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,61,251,2,0 // vpbroadcastd 0x2fb3d(%rip),%ymm2 # 3380c <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 196,226,125,88,21,29,96,2,0 // vpbroadcastd 0x2601d(%rip),%ymm2 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,48,251,2,0 // vbroadcastss 0x2fb30(%rip),%ymm8 # 33810 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 196,98,125,24,5,16,96,2,0 // vbroadcastss 0x26010(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,38,251,2,0 // vpbroadcastd 0x2fb26(%rip),%ymm8 # 33814 <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
+ .byte 196,98,125,88,5,6,96,2,0 // vpbroadcastd 0x26006(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,24,251,2,0 // vbroadcastss 0x2fb18(%rip),%ymm8 # 33818 <_sk_srcover_rgba_8888_sse2_lowp+0xd9c>
+ .byte 196,98,125,24,5,248,95,2,0 // vbroadcastss 0x25ff8(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13256,25 +13256,25 @@ _sk_load_4444_dst_hsw:
.byte 15,133,138,0,0,0 // jne 3e55 <_sk_load_4444_dst_hsw+0xa9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,29,250,2,0 // vpbroadcastd 0x2fa1d(%rip),%ymm4 # 337fc <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 196,226,125,88,37,253,94,2,0 // vpbroadcastd 0x25efd(%rip),%ymm4 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,16,250,2,0 // vbroadcastss 0x2fa10(%rip),%ymm5 # 33800 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 196,226,125,24,45,240,94,2,0 // vbroadcastss 0x25ef0(%rip),%ymm5 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,7,250,2,0 // vpbroadcastd 0x2fa07(%rip),%ymm5 # 33804 <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ .byte 196,226,125,88,45,231,94,2,0 // vpbroadcastd 0x25ee7(%rip),%ymm5 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,250,249,2,0 // vbroadcastss 0x2f9fa(%rip),%ymm6 # 33808 <_sk_srcover_rgba_8888_sse2_lowp+0xd8c>
+ .byte 196,226,125,24,53,218,94,2,0 // vbroadcastss 0x25eda(%rip),%ymm6 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,241,249,2,0 // vpbroadcastd 0x2f9f1(%rip),%ymm6 # 3380c <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 196,226,125,88,53,209,94,2,0 // vpbroadcastd 0x25ed1(%rip),%ymm6 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,228,249,2,0 // vbroadcastss 0x2f9e4(%rip),%ymm8 # 33810 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 196,98,125,24,5,196,94,2,0 // vbroadcastss 0x25ec4(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,218,249,2,0 // vpbroadcastd 0x2f9da(%rip),%ymm8 # 33814 <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
+ .byte 196,98,125,88,5,186,94,2,0 // vpbroadcastd 0x25eba(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,204,249,2,0 // vbroadcastss 0x2f9cc(%rip),%ymm8 # 33818 <_sk_srcover_rgba_8888_sse2_lowp+0xd9c>
+ .byte 196,98,125,24,5,172,94,2,0 // vbroadcastss 0x25eac(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13372,25 +13372,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,73,248,2,0 // vpbroadcastd 0x2f849(%rip),%ymm0 # 337fc <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 196,226,125,88,5,41,93,2,0 // vpbroadcastd 0x25d29(%rip),%ymm0 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,60,248,2,0 // vbroadcastss 0x2f83c(%rip),%ymm1 # 33800 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 196,226,125,24,13,28,93,2,0 // vbroadcastss 0x25d1c(%rip),%ymm1 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,51,248,2,0 // vpbroadcastd 0x2f833(%rip),%ymm1 # 33804 <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ .byte 196,226,125,88,13,19,93,2,0 // vpbroadcastd 0x25d13(%rip),%ymm1 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,38,248,2,0 // vbroadcastss 0x2f826(%rip),%ymm2 # 33808 <_sk_srcover_rgba_8888_sse2_lowp+0xd8c>
+ .byte 196,226,125,24,21,6,93,2,0 // vbroadcastss 0x25d06(%rip),%ymm2 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,29,248,2,0 // vpbroadcastd 0x2f81d(%rip),%ymm2 # 3380c <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 196,226,125,88,21,253,92,2,0 // vpbroadcastd 0x25cfd(%rip),%ymm2 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,16,248,2,0 // vbroadcastss 0x2f810(%rip),%ymm8 # 33810 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 196,98,125,24,5,240,92,2,0 // vbroadcastss 0x25cf0(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,6,248,2,0 // vpbroadcastd 0x2f806(%rip),%ymm8 # 33814 <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
+ .byte 196,98,125,88,5,230,92,2,0 // vpbroadcastd 0x25ce6(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,248,247,2,0 // vbroadcastss 0x2f7f8(%rip),%ymm8 # 33818 <_sk_srcover_rgba_8888_sse2_lowp+0xd9c>
+ .byte 196,98,125,24,5,216,92,2,0 // vbroadcastss 0x25cd8(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -13410,7 +13410,7 @@ _sk_store_4444_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,205,247,2,0 // vbroadcastss 0x2f7cd(%rip),%ymm8 # 3381c <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 196,98,125,24,5,173,92,2,0 // vbroadcastss 0x25cad(%rip),%ymm8 # 29cfc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -13491,14 +13491,14 @@ _sk_load_8888_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,86 // jne 419e <_sk_load_8888_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,234,236,2,0 // vpand 0x2ecea(%rip),%ymm3,%ymm0 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
+ .byte 197,229,219,5,42,86,2,0 // vpand 0x2562a(%rip),%ymm3,%ymm0 # 29780 <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,25,246,2,0 // vbroadcastss 0x2f619(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,249,90,2,0 // vbroadcastss 0x25af9(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,239,236,2,0 // vpshufb 0x2ecef(%rip),%ymm3,%ymm1 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0x3e4>
+ .byte 196,226,101,0,13,47,86,2,0 // vpshufb 0x2562f(%rip),%ymm3,%ymm1 # 297a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3e4>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,253,236,2,0 // vpshufb 0x2ecfd(%rip),%ymm3,%ymm2 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0x404>
+ .byte 196,226,101,0,21,61,86,2,0 // vpshufb 0x2563d(%rip),%ymm3,%ymm2 # 297c0 <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -13574,14 +13574,14 @@ _sk_load_8888_dst_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,86 // jne 42d2 <_sk_load_8888_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,22,236,2,0 // vpand 0x2ec16(%rip),%ymm7,%ymm4 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0x424>
+ .byte 197,197,219,37,86,85,2,0 // vpand 0x25556(%rip),%ymm7,%ymm4 # 297e0 <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,229,244,2,0 // vbroadcastss 0x2f4e5(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,197,89,2,0 // vbroadcastss 0x259c5(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,27,236,2,0 // vpshufb 0x2ec1b(%rip),%ymm7,%ymm5 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0x444>
+ .byte 196,226,69,0,45,91,85,2,0 // vpshufb 0x2555b(%rip),%ymm7,%ymm5 # 29800 <_sk_srcover_rgba_8888_sse2_lowp+0x444>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,41,236,2,0 // vpshufb 0x2ec29(%rip),%ymm7,%ymm6 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0x464>
+ .byte 196,226,69,0,53,105,85,2,0 // vpshufb 0x25569(%rip),%ymm7,%ymm6 # 29820 <_sk_srcover_rgba_8888_sse2_lowp+0x464>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -13657,14 +13657,14 @@ _sk_gather_8888_hsw:
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 196,194,117,144,28,128 // vpgatherdd %ymm1,(%r8,%ymm0,4),%ymm3
- .byte 197,229,219,5,58,235,2,0 // vpand 0x2eb3a(%rip),%ymm3,%ymm0 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0x484>
+ .byte 197,229,219,5,122,84,2,0 // vpand 0x2547a(%rip),%ymm3,%ymm0 # 29840 <_sk_srcover_rgba_8888_sse2_lowp+0x484>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,169,243,2,0 // vbroadcastss 0x2f3a9(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,137,88,2,0 // vbroadcastss 0x25889(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,63,235,2,0 // vpshufb 0x2eb3f(%rip),%ymm3,%ymm1 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0x4a4>
+ .byte 196,226,101,0,13,127,84,2,0 // vpshufb 0x2547f(%rip),%ymm3,%ymm1 # 29860 <_sk_srcover_rgba_8888_sse2_lowp+0x4a4>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,77,235,2,0 // vpshufb 0x2eb4d(%rip),%ymm3,%ymm2 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0x4c4>
+ .byte 196,226,101,0,21,141,84,2,0 // vpshufb 0x2548d(%rip),%ymm3,%ymm2 # 29880 <_sk_srcover_rgba_8888_sse2_lowp+0x4c4>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -13684,7 +13684,7 @@ _sk_store_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,6,243,2,0 // vbroadcastss 0x2f306(%rip),%ymm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,5,230,87,2,0 // vbroadcastss 0x257e6(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -13763,14 +13763,14 @@ _sk_load_bgra_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,86 // jne 4582 <_sk_load_bgra_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,38,234,2,0 // vpand 0x2ea26(%rip),%ymm3,%ymm0 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0x4e4>
+ .byte 197,229,219,5,102,83,2,0 // vpand 0x25366(%rip),%ymm3,%ymm0 # 298a0 <_sk_srcover_rgba_8888_sse2_lowp+0x4e4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,53,242,2,0 // vbroadcastss 0x2f235(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,21,87,2,0 // vbroadcastss 0x25715(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,43,234,2,0 // vpshufb 0x2ea2b(%rip),%ymm3,%ymm0 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0x504>
+ .byte 196,226,101,0,5,107,83,2,0 // vpshufb 0x2536b(%rip),%ymm3,%ymm0 # 298c0 <_sk_srcover_rgba_8888_sse2_lowp+0x504>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,57,234,2,0 // vpshufb 0x2ea39(%rip),%ymm3,%ymm0 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x524>
+ .byte 196,226,101,0,5,121,83,2,0 // vpshufb 0x25379(%rip),%ymm3,%ymm0 # 298e0 <_sk_srcover_rgba_8888_sse2_lowp+0x524>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -13846,14 +13846,14 @@ _sk_load_bgra_dst_hsw:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,86 // jne 46b6 <_sk_load_bgra_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,82,233,2,0 // vpand 0x2e952(%rip),%ymm7,%ymm4 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0x544>
+ .byte 197,197,219,37,146,82,2,0 // vpand 0x25292(%rip),%ymm7,%ymm4 # 29900 <_sk_srcover_rgba_8888_sse2_lowp+0x544>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,1,241,2,0 // vbroadcastss 0x2f101(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,225,85,2,0 // vbroadcastss 0x255e1(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,87,233,2,0 // vpshufb 0x2e957(%rip),%ymm7,%ymm4 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x564>
+ .byte 196,226,69,0,37,151,82,2,0 // vpshufb 0x25297(%rip),%ymm7,%ymm4 # 29920 <_sk_srcover_rgba_8888_sse2_lowp+0x564>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,101,233,2,0 // vpshufb 0x2e965(%rip),%ymm7,%ymm4 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0x584>
+ .byte 196,226,69,0,37,165,82,2,0 // vpshufb 0x252a5(%rip),%ymm7,%ymm4 # 29940 <_sk_srcover_rgba_8888_sse2_lowp+0x584>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -13929,14 +13929,14 @@ _sk_gather_bgra_hsw:
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 196,194,117,144,28,128 // vpgatherdd %ymm1,(%r8,%ymm0,4),%ymm3
- .byte 197,229,219,5,118,232,2,0 // vpand 0x2e876(%rip),%ymm3,%ymm0 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0x5a4>
+ .byte 197,229,219,5,182,81,2,0 // vpand 0x251b6(%rip),%ymm3,%ymm0 # 29960 <_sk_srcover_rgba_8888_sse2_lowp+0x5a4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,197,239,2,0 // vbroadcastss 0x2efc5(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,165,84,2,0 // vbroadcastss 0x254a5(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,123,232,2,0 // vpshufb 0x2e87b(%rip),%ymm3,%ymm0 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0x5c4>
+ .byte 196,226,101,0,5,187,81,2,0 // vpshufb 0x251bb(%rip),%ymm3,%ymm0 # 29980 <_sk_srcover_rgba_8888_sse2_lowp+0x5c4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,137,232,2,0 // vpshufb 0x2e889(%rip),%ymm3,%ymm0 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0x5e4>
+ .byte 196,226,101,0,5,201,81,2,0 // vpshufb 0x251c9(%rip),%ymm3,%ymm0 # 299a0 <_sk_srcover_rgba_8888_sse2_lowp+0x5e4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -13956,7 +13956,7 @@ _sk_store_bgra_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,34,239,2,0 // vbroadcastss 0x2ef22(%rip),%ymm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,5,2,84,2,0 // vbroadcastss 0x25402(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -14266,7 +14266,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,198,234,2,0 // vbroadcastss 0x2eac6(%rip),%ymm10 # 33798 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ .byte 196,98,125,24,21,166,79,2,0 // vbroadcastss 0x24fa6(%rip),%ymm10 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -14358,7 +14358,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,53,233,2,0 // vbroadcastss 0x2e935(%rip),%ymm9 # 33798 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ .byte 196,98,125,24,13,21,78,2,0 // vbroadcastss 0x24e15(%rip),%ymm9 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -14374,7 +14374,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,89,232,2,0 // vbroadcastss 0x2e859(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,57,77,2,0 // vbroadcastss 0x24d39(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
@@ -14450,7 +14450,7 @@ _sk_store_u16_be_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,30,232,2,0 // vbroadcastss 0x2e81e(%rip),%ymm8 # 33820 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 196,98,125,24,5,254,76,2,0 // vbroadcastss 0x24cfe(%rip),%ymm8 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -14844,7 +14844,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,227,224,2,0 // vmulss 0x2e0e3(%rip),%xmm9,%xmm0 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 197,178,89,5,195,69,2,0 // vmulss 0x245c3(%rip),%xmm9,%xmm0 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -14871,7 +14871,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,127,224,2,0 // vmulss 0x2e07f(%rip),%xmm9,%xmm1 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 197,178,89,13,95,69,2,0 // vmulss 0x2455f(%rip),%xmm9,%xmm1 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -14893,7 +14893,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,52,224,2,0 // vbroadcastss 0x2e034(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,20,69,2,0 // vbroadcastss 0x24514(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14911,9 +14911,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,43,224,2,0 // vbroadcastss 0x2e02b(%rip),%ymm8 # 33720 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 196,98,125,24,5,11,69,2,0 // vbroadcastss 0x2450b(%rip),%ymm8 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,1,224,2,0 // vbroadcastss 0x2e001(%rip),%ymm9 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,13,225,68,2,0 // vbroadcastss 0x244e1(%rip),%ymm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -14929,11 +14929,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,237,224,2,0 // vbroadcastss 0x2e0ed(%rip),%ymm3 # 33824 <_sk_srcover_rgba_8888_sse2_lowp+0xda8>
- .byte 196,98,125,24,5,232,224,2,0 // vbroadcastss 0x2e0e8(%rip),%ymm8 # 33828 <_sk_srcover_rgba_8888_sse2_lowp+0xdac>
+ .byte 196,226,125,24,29,205,69,2,0 // vbroadcastss 0x245cd(%rip),%ymm3 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,5,200,69,2,0 // vbroadcastss 0x245c8(%rip),%ymm8 # 29d08 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,217,224,2,0 // vbroadcastss 0x2e0d9(%rip),%ymm3 # 3382c <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 196,226,125,24,29,185,69,2,0 // vbroadcastss 0x245b9(%rip),%ymm3 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x950>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -15205,14 +15205,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,187,220,2,0 // vbroadcastss 0x2dcbb(%rip),%ymm0 # 33830 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
- .byte 196,226,125,24,13,182,220,2,0 // vbroadcastss 0x2dcb6(%rip),%ymm1 # 33834 <_sk_srcover_rgba_8888_sse2_lowp+0xdb8>
+ .byte 196,226,125,24,5,155,65,2,0 // vbroadcastss 0x2419b(%rip),%ymm0 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,226,125,24,13,150,65,2,0 // vbroadcastss 0x24196(%rip),%ymm1 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,172,220,2,0 // vbroadcastss 0x2dcac(%rip),%ymm0 # 33838 <_sk_srcover_rgba_8888_sse2_lowp+0xdbc>
+ .byte 196,226,125,24,5,140,65,2,0 // vbroadcastss 0x2418c(%rip),%ymm0 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,162,220,2,0 // vbroadcastss 0x2dca2(%rip),%ymm1 # 3383c <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 196,226,125,24,13,130,65,2,0 // vbroadcastss 0x24182(%rip),%ymm1 # 29d1c <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,152,220,2,0 // vbroadcastss 0x2dc98(%rip),%ymm0 # 33840 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 196,226,125,24,5,120,65,2,0 // vbroadcastss 0x24178(%rip),%ymm0 # 29d20 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -15231,7 +15231,7 @@ _sk_gradient_hsw:
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,41,219,2,0 // vbroadcastss 0x2db29(%rip),%ymm2 # 3370c <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 196,226,125,24,21,9,64,2,0 // vbroadcastss 0x24009(%rip),%ymm2 # 29bec <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -15334,24 +15334,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,180,218,2,0 // vbroadcastss 0x2dab4(%rip),%ymm13 # 33844 <_sk_srcover_rgba_8888_sse2_lowp+0xdc8>
- .byte 196,98,125,24,53,175,218,2,0 // vbroadcastss 0x2daaf(%rip),%ymm14 # 33848 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
+ .byte 196,98,125,24,45,148,63,2,0 // vbroadcastss 0x23f94(%rip),%ymm13 # 29d24 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,98,125,24,53,143,63,2,0 // vbroadcastss 0x23f8f(%rip),%ymm14 # 29d28 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,165,218,2,0 // vbroadcastss 0x2daa5(%rip),%ymm13 # 3384c <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 196,98,125,24,45,133,63,2,0 // vbroadcastss 0x23f85(%rip),%ymm13 # 29d2c <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,155,218,2,0 // vbroadcastss 0x2da9b(%rip),%ymm14 # 33850 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 196,98,125,24,53,123,63,2,0 // vbroadcastss 0x23f7b(%rip),%ymm14 # 29d30 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,134,218,2,0 // vbroadcastss 0x2da86(%rip),%ymm10 # 33854 <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
+ .byte 196,98,125,24,21,102,63,2,0 // vbroadcastss 0x23f66(%rip),%ymm10 # 29d34 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,28,217,2,0 // vbroadcastss 0x2d91c(%rip),%ymm10 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,21,252,61,2,0 // vbroadcastss 0x23dfc(%rip),%ymm10 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,6,217,2,0 // vbroadcastss 0x2d906(%rip),%ymm10 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,21,230,61,2,0 // vbroadcastss 0x23de6(%rip),%ymm10 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -15379,23 +15379,23 @@ _sk_xy_to_2pt_conical_quadratic_max_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,6,218,2,0 // vbroadcastss 0x2da06(%rip),%ymm11 # 33858 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ .byte 196,98,125,24,29,230,62,2,0 // vbroadcastss 0x23ee6(%rip),%ymm11 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,229,217,2,0 // vbroadcastss 0x2d9e5(%rip),%ymm9 # 3385c <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ .byte 196,98,125,24,13,197,62,2,0 // vbroadcastss 0x23ec5(%rip),%ymm9 # 29d3c <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,200,217,2,0 // vbroadcastss 0x2d9c8(%rip),%ymm9 # 33860 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 196,98,125,24,13,168,62,2,0 // vbroadcastss 0x23ea8(%rip),%ymm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,89,216,2,0 // vbroadcastss 0x2d859(%rip),%ymm11 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,29,57,61,2,0 // vbroadcastss 0x23d39(%rip),%ymm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -15414,23 +15414,23 @@ _sk_xy_to_2pt_conical_quadratic_min_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,110,217,2,0 // vbroadcastss 0x2d96e(%rip),%ymm11 # 33858 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ .byte 196,98,125,24,29,78,62,2,0 // vbroadcastss 0x23e4e(%rip),%ymm11 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,77,217,2,0 // vbroadcastss 0x2d94d(%rip),%ymm9 # 3385c <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ .byte 196,98,125,24,13,45,62,2,0 // vbroadcastss 0x23e2d(%rip),%ymm9 # 29d3c <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,48,217,2,0 // vbroadcastss 0x2d930(%rip),%ymm9 # 33860 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 196,98,125,24,13,16,62,2,0 // vbroadcastss 0x23e10(%rip),%ymm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,193,215,2,0 // vbroadcastss 0x2d7c1(%rip),%ymm11 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,29,161,60,2,0 // vbroadcastss 0x23ca1(%rip),%ymm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -15448,14 +15448,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,220,216,2,0 // vbroadcastss 0x2d8dc(%rip),%ymm10 # 33858 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ .byte 196,98,125,24,21,188,61,2,0 // vbroadcastss 0x23dbc(%rip),%ymm10 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,191,216,2,0 // vbroadcastss 0x2d8bf(%rip),%ymm8 # 33860 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 196,98,125,24,5,159,61,2,0 // vbroadcastss 0x23d9f(%rip),%ymm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15495,7 +15495,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,255,214,2,0 // vbroadcastss 0x2d6ff(%rip),%ymm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,5,223,59,2,0 // vbroadcastss 0x23bdf(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -15529,9 +15529,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,239,215,2,0 // vbroadcastss 0x2d7ef(%rip),%ymm0 # 33864 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ .byte 196,226,125,24,5,207,60,2,0 // vbroadcastss 0x23ccf(%rip),%ymm0 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,134,214,2,0 // vbroadcastss 0x2d686(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,102,59,2,0 // vbroadcastss 0x23b66(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15542,7 +15542,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,102,214,2,0 // vbroadcastss 0x2d666(%rip),%ymm0 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,226,125,24,5,70,59,2,0 // vbroadcastss 0x23b46(%rip),%ymm0 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -15554,9 +15554,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,166,215,2,0 // vbroadcastss 0x2d7a6(%rip),%ymm1 # 33864 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ .byte 196,226,125,24,13,134,60,2,0 // vbroadcastss 0x23c86(%rip),%ymm1 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,60,214,2,0 // vbroadcastss 0x2d63c(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,28,59,2,0 // vbroadcastss 0x23b1c(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15567,7 +15567,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,28,214,2,0 // vbroadcastss 0x2d61c(%rip),%ymm1 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,226,125,24,13,252,58,2,0 // vbroadcastss 0x23afc(%rip),%ymm1 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -15579,13 +15579,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,95,215,2,0 // vbroadcastss 0x2d75f(%rip),%ymm0 # 33868 <_sk_srcover_rgba_8888_sse2_lowp+0xdec>
+ .byte 196,226,125,24,5,63,60,2,0 // vbroadcastss 0x23c3f(%rip),%ymm0 # 29d48 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,242,213,2,0 // vbroadcastss 0x2d5f2(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,210,58,2,0 // vbroadcastss 0x23ad2(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,79,214,2,0 // vbroadcastss 0x2d64f(%rip),%ymm10 # 33778 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
- .byte 196,98,125,24,29,58,215,2,0 // vbroadcastss 0x2d73a(%rip),%ymm11 # 3386c <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 196,98,125,24,21,47,59,2,0 // vbroadcastss 0x23b2f(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,29,26,60,2,0 // vbroadcastss 0x23c1a(%rip),%ymm11 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -15597,16 +15597,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,17,215,2,0 // vbroadcastss 0x2d711(%rip),%ymm0 # 33864 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ .byte 196,226,125,24,5,241,59,2,0 // vbroadcastss 0x23bf1(%rip),%ymm0 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,168,213,2,0 // vbroadcastss 0x2d5a8(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,136,58,2,0 // vbroadcastss 0x23a88(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,2,215,2,0 // vbroadcastss 0x2d702(%rip),%ymm9 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
- .byte 196,98,125,24,21,253,214,2,0 // vbroadcastss 0x2d6fd(%rip),%ymm10 # 33874 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
+ .byte 196,98,125,24,13,226,59,2,0 // vbroadcastss 0x23be2(%rip),%ymm9 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,21,221,59,2,0 // vbroadcastss 0x23bdd(%rip),%ymm10 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,127,213,2,0 // vbroadcastss 0x2d57f(%rip),%ymm9 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,13,95,58,2,0 // vbroadcastss 0x23a5f(%rip),%ymm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,229,214,2,0 // vbroadcastss 0x2d6e5(%rip),%ymm10 # 33878 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
+ .byte 196,98,125,24,21,197,59,2,0 // vbroadcastss 0x23bc5(%rip),%ymm10 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15617,14 +15617,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,85,213,2,0 // vbroadcastss 0x2d555(%rip),%ymm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,5,53,58,2,0 // vbroadcastss 0x23a35(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,175,214,2,0 // vbroadcastss 0x2d6af(%rip),%ymm10 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
- .byte 196,98,125,24,29,170,214,2,0 // vbroadcastss 0x2d6aa(%rip),%ymm11 # 33874 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
+ .byte 196,98,125,24,21,143,59,2,0 // vbroadcastss 0x23b8f(%rip),%ymm10 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,29,138,59,2,0 // vbroadcastss 0x23b8a(%rip),%ymm11 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,155,214,2,0 // vbroadcastss 0x2d69b(%rip),%ymm8 # 33878 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
+ .byte 196,98,125,24,5,123,59,2,0 // vbroadcastss 0x23b7b(%rip),%ymm8 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15635,12 +15635,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,119,214,2,0 // vbroadcastss 0x2d677(%rip),%ymm0 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 196,226,125,24,5,87,59,2,0 // vbroadcastss 0x23b57(%rip),%ymm0 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,104,213,2,0 // vbroadcastss 0x2d568(%rip),%ymm10 # 33778 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
- .byte 196,98,125,24,29,83,214,2,0 // vbroadcastss 0x2d653(%rip),%ymm11 # 3386c <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 196,98,125,24,21,72,58,2,0 // vbroadcastss 0x23a48(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,29,51,59,2,0 // vbroadcastss 0x23b33(%rip),%ymm11 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -15652,13 +15652,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,46,214,2,0 // vbroadcastss 0x2d62e(%rip),%ymm1 # 33868 <_sk_srcover_rgba_8888_sse2_lowp+0xdec>
+ .byte 196,226,125,24,13,14,59,2,0 // vbroadcastss 0x23b0e(%rip),%ymm1 # 29d48 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,192,212,2,0 // vbroadcastss 0x2d4c0(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,160,57,2,0 // vbroadcastss 0x239a0(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,29,213,2,0 // vbroadcastss 0x2d51d(%rip),%ymm10 # 33778 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
- .byte 196,98,125,24,29,8,214,2,0 // vbroadcastss 0x2d608(%rip),%ymm11 # 3386c <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 196,98,125,24,21,253,57,2,0 // vbroadcastss 0x239fd(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,29,232,58,2,0 // vbroadcastss 0x23ae8(%rip),%ymm11 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -15670,16 +15670,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,223,213,2,0 // vbroadcastss 0x2d5df(%rip),%ymm1 # 33864 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ .byte 196,226,125,24,13,191,58,2,0 // vbroadcastss 0x23abf(%rip),%ymm1 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,117,212,2,0 // vbroadcastss 0x2d475(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,85,57,2,0 // vbroadcastss 0x23955(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,207,213,2,0 // vbroadcastss 0x2d5cf(%rip),%ymm9 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
- .byte 196,98,125,24,21,202,213,2,0 // vbroadcastss 0x2d5ca(%rip),%ymm10 # 33874 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
+ .byte 196,98,125,24,13,175,58,2,0 // vbroadcastss 0x23aaf(%rip),%ymm9 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,21,170,58,2,0 // vbroadcastss 0x23aaa(%rip),%ymm10 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,76,212,2,0 // vbroadcastss 0x2d44c(%rip),%ymm9 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,13,44,57,2,0 // vbroadcastss 0x2392c(%rip),%ymm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,178,213,2,0 // vbroadcastss 0x2d5b2(%rip),%ymm10 # 33878 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
+ .byte 196,98,125,24,21,146,58,2,0 // vbroadcastss 0x23a92(%rip),%ymm10 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15690,14 +15690,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,34,212,2,0 // vbroadcastss 0x2d422(%rip),%ymm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,5,2,57,2,0 // vbroadcastss 0x23902(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,123,213,2,0 // vbroadcastss 0x2d57b(%rip),%ymm10 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
- .byte 196,98,125,24,29,118,213,2,0 // vbroadcastss 0x2d576(%rip),%ymm11 # 33874 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
+ .byte 196,98,125,24,21,91,58,2,0 // vbroadcastss 0x23a5b(%rip),%ymm10 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,29,86,58,2,0 // vbroadcastss 0x23a56(%rip),%ymm11 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,103,213,2,0 // vbroadcastss 0x2d567(%rip),%ymm8 # 33878 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
+ .byte 196,98,125,24,5,71,58,2,0 // vbroadcastss 0x23a47(%rip),%ymm8 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15708,12 +15708,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,67,213,2,0 // vbroadcastss 0x2d543(%rip),%ymm1 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 196,226,125,24,13,35,58,2,0 // vbroadcastss 0x23a23(%rip),%ymm1 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,51,212,2,0 // vbroadcastss 0x2d433(%rip),%ymm10 # 33778 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
- .byte 196,98,125,24,29,30,213,2,0 // vbroadcastss 0x2d51e(%rip),%ymm11 # 3386c <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 196,98,125,24,21,19,57,2,0 // vbroadcastss 0x23913(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,29,254,57,2,0 // vbroadcastss 0x239fe(%rip),%ymm11 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -15853,7 +15853,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,224,210,2,0 // vpbroadcastd 0x2d2e0(%rip),%ymm15 # 33880 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 196,98,125,88,61,192,55,2,0 // vpbroadcastd 0x237c0(%rip),%ymm15 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -15865,13 +15865,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,46,209,2,0 // vpbroadcastd 0x2d12e(%rip),%ymm7 # 33714 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ .byte 196,226,125,88,61,14,54,2,0 // vpbroadcastd 0x2360e(%rip),%ymm7 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,114,210,2,0 // vbroadcastss 0x2d272(%rip),%ymm0 # 3387c <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+ .byte 196,226,125,24,5,82,55,2,0 // vbroadcastss 0x23752(%rip),%ymm0 # 29d5c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -16133,7 +16133,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,11,205,2,0 // vpbroadcastd 0x2cd0b(%rip),%ymm10 # 33880 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 196,98,125,88,21,235,49,2,0 // vpbroadcastd 0x231eb(%rip),%ymm10 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -16145,13 +16145,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,86,203,2,0 // vpbroadcastd 0x2cb56(%rip),%ymm11 # 33714 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ .byte 196,98,125,88,29,54,48,2,0 // vpbroadcastd 0x23036(%rip),%ymm11 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,155,204,2,0 // vbroadcastss 0x2cc9b(%rip),%ymm0 # 3387c <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+ .byte 196,226,125,24,5,123,49,2,0 // vbroadcastss 0x2317b(%rip),%ymm0 # 29d5c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -16584,7 +16584,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,121,193,2,0 // vbroadcastss 0x2c179(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,89,38,2,0 // vbroadcastss 0x22659(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -16664,15 +16664,15 @@ _sk_seed_shader_avx:
.byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,20,186,2,0 // vaddps 0x2ba14(%rip),%ymm0,%ymm0 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0x604>
+ .byte 197,252,88,5,84,35,2,0 // vaddps 0x22354(%rip),%ymm0,%ymm0 # 299c0 <_sk_srcover_rgba_8888_sse2_lowp+0x604>
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,124,192,2,0 // vbroadcastss 0x2c07c(%rip),%ymm2 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,226,125,24,21,92,37,2,0 // vbroadcastss 0x2255c(%rip),%ymm2 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,113,192,2,0 // vbroadcastss 0x2c071(%rip),%ymm2 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,21,81,37,2,0 // vbroadcastss 0x22551(%rip),%ymm2 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -16686,46 +16686,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,49,194,2,0 // vpaddd 0x2c231(%rip),%xmm8,%xmm9 # 338f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
- .byte 197,57,254,5,57,194,2,0 // vpaddd 0x2c239(%rip),%xmm8,%xmm8 # 33900 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
+ .byte 197,57,254,13,241,38,2,0 // vpaddd 0x226f1(%rip),%xmm8,%xmm9 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 197,57,254,5,249,38,2,0 // vpaddd 0x226f9(%rip),%xmm8,%xmm8 # 29dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,33,192,2,0 // vbroadcastss 0x2c021(%rip),%ymm10 # 3370c <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 196,98,125,24,21,1,37,2,0 // vbroadcastss 0x22501(%rip),%ymm10 # 29bec <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,176,202,2,0 // vmovddup 0x2cab0(%rip),%xmm12 # 341c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1744>
+ .byte 197,123,18,37,128,46,2,0 // vmovddup 0x22e80(%rip),%xmm12 # 2a590 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,223,191,2,0 // vbroadcastss 0x2bfdf(%rip),%ymm13 # 33714 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ .byte 196,98,125,24,45,191,36,2,0 // vbroadcastss 0x224bf(%rip),%ymm13 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,110,202,2,0 // vmovddup 0x2ca6e(%rip),%xmm14 # 341c8 <_sk_srcover_rgba_8888_sse2_lowp+0x174c>
+ .byte 197,123,18,53,62,46,2,0 // vmovddup 0x22e3e(%rip),%xmm14 # 2a598 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,142,191,2,0 // vbroadcastss 0x2bf8e(%rip),%ymm14 # 33710 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 196,98,125,24,53,110,36,2,0 // vbroadcastss 0x2246e(%rip),%ymm14 # 29bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,36,202,2,0 // vmovddup 0x2ca24(%rip),%xmm13 # 341d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1754>
+ .byte 197,123,18,45,244,45,2,0 // vmovddup 0x22df4(%rip),%xmm13 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -16736,9 +16736,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,49,191,2,0 // vbroadcastss 0x2bf31(%rip),%ymm9 # 33718 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
+ .byte 196,98,125,24,13,17,36,2,0 // vbroadcastss 0x22411(%rip),%ymm9 # 29bf8 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,39,191,2,0 // vbroadcastss 0x2bf27(%rip),%ymm9 # 3371c <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 196,98,125,24,13,7,36,2,0 // vbroadcastss 0x22407(%rip),%ymm9 # 29bfc <_sk_srcover_rgba_8888_sse2_lowp+0x840>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -16772,7 +16772,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,175,190,2,0 // vbroadcastss 0x2beaf(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,143,35,2,0 // vbroadcastss 0x2238f(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16783,7 +16783,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,150,190,2,0 // vbroadcastss 0x2be96(%rip),%ymm0 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,5,118,35,2,0 // vbroadcastss 0x22376(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -16829,7 +16829,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,53,190,2,0 // vbroadcastss 0x2be35(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,21,35,2,0 // vbroadcastss 0x22315(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -16850,7 +16850,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,243,189,2,0 // vbroadcastss 0x2bdf3(%rip),%ymm9 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,13,211,34,2,0 // vbroadcastss 0x222d3(%rip),%ymm9 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -16892,7 +16892,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,142,189,2,0 // vbroadcastss 0x2bd8e(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,110,34,2,0 // vbroadcastss 0x2226e(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -16905,7 +16905,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,109,189,2,0 // vbroadcastss 0x2bd6d(%rip),%ymm0 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,5,77,34,2,0 // vbroadcastss 0x2224d(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -16918,7 +16918,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,76,189,2,0 // vbroadcastss 0x2bd4c(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,44,34,2,0 // vbroadcastss 0x2222c(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -16935,7 +16935,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,27,189,2,0 // vbroadcastss 0x2bd1b(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,251,33,2,0 // vbroadcastss 0x221fb(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -16963,7 +16963,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,214,188,2,0 // vbroadcastss 0x2bcd6(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,182,33,2,0 // vbroadcastss 0x221b6(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16994,7 +16994,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,101,188,2,0 // vbroadcastss 0x2bc65(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,69,33,2,0 // vbroadcastss 0x22145(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -17028,7 +17028,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,4,188,2,0 // vbroadcastss 0x2bc04(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,228,32,2,0 // vbroadcastss 0x220e4(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17065,7 +17065,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,128,187,2,0 // vbroadcastss 0x2bb80(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,96,32,2,0 // vbroadcastss 0x22060(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17091,7 +17091,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,40,187,2,0 // vbroadcastss 0x2bb28(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,8,32,2,0 // vbroadcastss 0x22008(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17120,7 +17120,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,196,186,2,0 // vbroadcastss 0x2bac4(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,164,31,2,0 // vbroadcastss 0x21fa4(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17143,7 +17143,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,123,186,2,0 // vbroadcastss 0x2ba7b(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,91,31,2,0 // vbroadcastss 0x21f5b(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17154,7 +17154,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,98,186,2,0 // vbroadcastss 0x2ba62(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,66,31,2,0 // vbroadcastss 0x21f42(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -17216,7 +17216,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,102,185,2,0 // vbroadcastss 0x2b966(%rip),%ymm9 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,13,70,30,2,0 // vbroadcastss 0x21e46(%rip),%ymm9 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -17273,7 +17273,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,113,184,2,0 // vbroadcastss 0x2b871(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,81,29,2,0 // vbroadcastss 0x21d51(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17328,7 +17328,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,150,183,2,0 // vbroadcastss 0x2b796(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,118,28,2,0 // vbroadcastss 0x21c76(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17394,10 +17394,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,157,182,2,0 // vbroadcastss 0x2b69d(%rip),%ymm11 # 33720 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 196,98,125,24,29,125,27,2,0 // vbroadcastss 0x21b7d(%rip),%ymm11 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,142,182,2,0 // vbroadcastss 0x2b68e(%rip),%ymm13 # 33724 <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
+ .byte 196,98,125,24,45,110,27,2,0 // vbroadcastss 0x21b6e(%rip),%ymm13 # 29c04 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -17408,7 +17408,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,56,182,2,0 // vbroadcastss 0x2b638(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,24,27,2,0 // vbroadcastss 0x21b18(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -17535,12 +17535,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,27,180,2,0 // vbroadcastss 0x2b41b(%rip),%ymm14 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ .byte 196,98,125,24,53,251,24,2,0 // vbroadcastss 0x218fb(%rip),%ymm14 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,17,180,2,0 // vbroadcastss 0x2b411(%rip),%ymm15 # 3372c <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 196,98,125,24,61,241,24,2,0 // vbroadcastss 0x218f1(%rip),%ymm15 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,2,180,2,0 // vbroadcastss 0x2b402(%rip),%ymm0 # 33730 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 196,226,125,24,5,226,24,2,0 // vbroadcastss 0x218e2(%rip),%ymm0 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -17601,7 +17601,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,175,178,2,0 // vbroadcastss 0x2b2af(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,143,23,2,0 // vbroadcastss 0x2178f(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17658,12 +17658,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,217,177,2,0 // vbroadcastss 0x2b1d9(%rip),%ymm14 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ .byte 196,98,125,24,53,185,22,2,0 // vbroadcastss 0x216b9(%rip),%ymm14 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,207,177,2,0 // vbroadcastss 0x2b1cf(%rip),%ymm15 # 3372c <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 196,98,125,24,61,175,22,2,0 // vbroadcastss 0x216af(%rip),%ymm15 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,192,177,2,0 // vbroadcastss 0x2b1c0(%rip),%ymm0 # 33730 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 196,226,125,24,5,160,22,2,0 // vbroadcastss 0x216a0(%rip),%ymm0 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -17724,7 +17724,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,109,176,2,0 // vbroadcastss 0x2b06d(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,77,21,2,0 // vbroadcastss 0x2154d(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17753,12 +17753,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,31,176,2,0 // vbroadcastss 0x2b01f(%rip),%ymm13 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ .byte 196,98,125,24,45,255,20,2,0 // vbroadcastss 0x214ff(%rip),%ymm13 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,21,176,2,0 // vbroadcastss 0x2b015(%rip),%ymm14 # 3372c <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 196,98,125,24,53,245,20,2,0 // vbroadcastss 0x214f5(%rip),%ymm14 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,6,176,2,0 // vbroadcastss 0x2b006(%rip),%ymm15 # 33730 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 196,98,125,24,61,230,20,2,0 // vbroadcastss 0x214e6(%rip),%ymm15 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -17821,7 +17821,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,161,174,2,0 // vbroadcastss 0x2aea1(%rip),%ymm0 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,5,129,19,2,0 // vbroadcastss 0x21381(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17851,12 +17851,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,79,174,2,0 // vbroadcastss 0x2ae4f(%rip),%ymm13 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ .byte 196,98,125,24,45,47,19,2,0 // vbroadcastss 0x2132f(%rip),%ymm13 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,69,174,2,0 // vbroadcastss 0x2ae45(%rip),%ymm14 # 3372c <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 196,98,125,24,53,37,19,2,0 // vbroadcastss 0x21325(%rip),%ymm14 # 29c0c <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,54,174,2,0 // vbroadcastss 0x2ae36(%rip),%ymm15 # 33730 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 196,98,125,24,61,22,19,2,0 // vbroadcastss 0x21316(%rip),%ymm15 # 29c10 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -17919,7 +17919,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,209,172,2,0 // vbroadcastss 0x2acd1(%rip),%ymm0 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,5,177,17,2,0 // vbroadcastss 0x211b1(%rip),%ymm0 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17953,7 +17953,7 @@ _sk_srcover_rgba_8888_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,42,1,0,0 // jne 8bcc <_sk_srcover_rgba_8888_avx+0x14a>
.byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8
- .byte 197,125,40,13,240,165,2,0 // vmovapd 0x2a5f0(%rip),%ymm9 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0x624>
+ .byte 197,125,40,13,48,15,2,0 // vmovapd 0x20f30(%rip),%ymm9 # 299e0 <_sk_srcover_rgba_8888_sse2_lowp+0x624>
.byte 196,193,61,84,225 // vandpd %ymm9,%ymm8,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
@@ -17971,9 +17971,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,247,171,2,0 // vbroadcastss 0x2abf7(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,215,16,2,0 // vbroadcastss 0x210d7(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,22,172,2,0 // vbroadcastss 0x2ac16(%rip),%ymm9 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,13,246,16,2,0 // vbroadcastss 0x210f6(%rip),%ymm9 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
@@ -18115,7 +18115,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,182,169,2,0 // vbroadcastss 0x2a9b6(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,150,14,2,0 // vbroadcastss 0x20e96(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -18127,7 +18127,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,149,169,2,0 // vbroadcastss 0x2a995(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,117,14,2,0 // vbroadcastss 0x20e75(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -18139,7 +18139,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,119,169,2,0 // vbroadcastss 0x2a977(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,87,14,2,0 // vbroadcastss 0x20e57(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -18172,7 +18172,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,50,169,2,0 // vbroadcastss 0x2a932(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,18,14,2,0 // vbroadcastss 0x20e12(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -18228,7 +18228,7 @@ FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,194,168,2,0 // vbroadcastss 0x2a8c2(%rip),%ymm10 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,21,162,13,2,0 // vbroadcastss 0x20da2(%rip),%ymm10 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -18241,17 +18241,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,207,168,2,0 // vbroadcastss 0x2a8cf(%rip),%ymm8 # 33738 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
+ .byte 196,98,125,24,5,175,13,2,0 // vbroadcastss 0x20daf(%rip),%ymm8 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,173,168,2,0 // vbroadcastss 0x2a8ad(%rip),%ymm11 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ .byte 196,98,125,24,29,141,13,2,0 // vbroadcastss 0x20d8d(%rip),%ymm11 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,179,168,2,0 // vbroadcastss 0x2a8b3(%rip),%ymm13 # 3373c <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 196,98,125,24,45,147,13,2,0 // vbroadcastss 0x20d93(%rip),%ymm13 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x860>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,164,168,2,0 // vbroadcastss 0x2a8a4(%rip),%ymm12 # 33740 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 196,98,125,24,37,132,13,2,0 // vbroadcastss 0x20d84(%rip),%ymm12 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,154,168,2,0 // vbroadcastss 0x2a89a(%rip),%ymm14 # 33744 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
+ .byte 196,98,125,24,53,122,13,2,0 // vbroadcastss 0x20d7a(%rip),%ymm14 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -18277,17 +18277,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,35,168,2,0 // vbroadcastss 0x2a823(%rip),%ymm8 # 33738 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
+ .byte 196,98,125,24,5,3,13,2,0 // vbroadcastss 0x20d03(%rip),%ymm8 # 29c18 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,1,168,2,0 // vbroadcastss 0x2a801(%rip),%ymm11 # 33728 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ .byte 196,98,125,24,29,225,12,2,0 // vbroadcastss 0x20ce1(%rip),%ymm11 # 29c08 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,7,168,2,0 // vbroadcastss 0x2a807(%rip),%ymm13 # 3373c <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 196,98,125,24,45,231,12,2,0 // vbroadcastss 0x20ce7(%rip),%ymm13 # 29c1c <_sk_srcover_rgba_8888_sse2_lowp+0x860>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,248,167,2,0 // vbroadcastss 0x2a7f8(%rip),%ymm12 # 33740 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 196,98,125,24,37,216,12,2,0 // vbroadcastss 0x20cd8(%rip),%ymm12 # 29c20 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,238,167,2,0 // vbroadcastss 0x2a7ee(%rip),%ymm14 # 33744 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
+ .byte 196,98,125,24,53,206,12,2,0 // vbroadcastss 0x20cce(%rip),%ymm14 # 29c24 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -18314,20 +18314,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,131,167,2,0 // vbroadcastss 0x2a783(%rip),%ymm8 # 33748 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ .byte 196,98,125,24,5,99,12,2,0 // vbroadcastss 0x20c63(%rip),%ymm8 # 29c28 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,125,167,2,0 // vbroadcastss 0x2a77d(%rip),%ymm11 # 33750 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 196,98,125,24,29,93,12,2,0 // vbroadcastss 0x20c5d(%rip),%ymm11 # 29c30 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,107,167,2,0 // vbroadcastss 0x2a76b(%rip),%ymm13 # 3374c <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 196,98,125,24,45,75,12,2,0 // vbroadcastss 0x20c4b(%rip),%ymm13 # 29c2c <_sk_srcover_rgba_8888_sse2_lowp+0x870>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,96,167,2,0 // vbroadcastss 0x2a760(%rip),%ymm14 # 33754 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 196,98,125,24,53,64,12,2,0 // vbroadcastss 0x20c40(%rip),%ymm14 # 29c34 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,86,167,2,0 // vbroadcastss 0x2a756(%rip),%ymm15 # 33758 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ .byte 196,98,125,24,61,54,12,2,0 // vbroadcastss 0x20c36(%rip),%ymm15 # 29c38 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,66,167,2,0 // vbroadcastss 0x2a742(%rip),%ymm12 # 3375c <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 196,98,125,24,37,34,12,2,0 // vbroadcastss 0x20c22(%rip),%ymm12 # 29c3c <_sk_srcover_rgba_8888_sse2_lowp+0x880>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -18364,7 +18364,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,78,166,2,0 // vbroadcastss 0x2a64e(%rip),%ymm11 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,29,46,11,2,0 // vbroadcastss 0x20b2e(%rip),%ymm11 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -18374,19 +18374,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,123,166,2,0 // vbroadcastss 0x2a67b(%rip),%ymm11 # 33768 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 196,98,125,24,29,91,11,2,0 // vbroadcastss 0x20b5b(%rip),%ymm11 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,105,166,2,0 // vbroadcastss 0x2a669(%rip),%ymm11 # 33764 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 196,98,125,24,29,73,11,2,0 // vbroadcastss 0x20b49(%rip),%ymm11 # 29c44 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,81,166,2,0 // vbroadcastss 0x2a651(%rip),%ymm2 # 33760 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 196,226,125,24,21,49,11,2,0 // vbroadcastss 0x20b31(%rip),%ymm2 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,204,165,2,0 // vbroadcastss 0x2a5cc(%rip),%ymm12 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,37,172,10,2,0 // vbroadcastss 0x20aac(%rip),%ymm12 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -18396,7 +18396,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,251,165,2,0 // vbroadcastss 0x2a5fb(%rip),%ymm8 # 3376c <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 196,98,125,24,5,219,10,2,0 // vbroadcastss 0x20adb(%rip),%ymm8 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18413,7 +18413,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,88,165,2,0 // vbroadcastss 0x2a558(%rip),%ymm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,5,56,10,2,0 // vbroadcastss 0x20a38(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -18421,23 +18421,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,154,165,2,0 // vbroadcastss 0x2a59a(%rip),%ymm11 # 33770 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 196,98,125,24,29,122,10,2,0 // vbroadcastss 0x20a7a(%rip),%ymm11 # 29c50 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,108,165,2,0 // vbroadcastss 0x2a56c(%rip),%ymm12 # 33760 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 196,98,125,24,37,76,10,2,0 // vbroadcastss 0x20a4c(%rip),%ymm12 # 29c40 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,102,165,2,0 // vbroadcastss 0x2a566(%rip),%ymm13 # 33768 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ .byte 196,98,125,24,45,70,10,2,0 // vbroadcastss 0x20a46(%rip),%ymm13 # 29c48 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,91,165,2,0 // vbroadcastss 0x2a55b(%rip),%ymm1 # 33774 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ .byte 196,226,125,24,13,59,10,2,0 // vbroadcastss 0x20a3b(%rip),%ymm1 # 29c54 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,50,165,2,0 // vbroadcastss 0x2a532(%rip),%ymm14 # 3376c <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 196,98,125,24,53,18,10,2,0 // vbroadcastss 0x20a12(%rip),%ymm14 # 29c4c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -18456,7 +18456,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,220,164,2,0 // vbroadcastss 0x2a4dc(%rip),%ymm0 # 33778 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ .byte 196,226,125,24,5,188,9,2,0 // vbroadcastss 0x209bc(%rip),%ymm0 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -18512,13 +18512,13 @@ _sk_scale_u8_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,75 // jne 93a2 <_sk_scale_u8_avx+0x63>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,91,165,2,0 // vpand 0x2a55b(%rip),%xmm8,%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,57,219,5,27,10,2,0 // vpand 0x20a1b(%rip),%xmm8,%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,243,163,2,0 // vbroadcastss 0x2a3f3(%rip),%ymm9 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,13,211,8,2,0 // vbroadcastss 0x208d3(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -18567,7 +18567,7 @@ _sk_scale_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00944c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd69d0>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00944c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0090>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -18596,20 +18596,20 @@ _sk_scale_565_avx:
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,228,162,2,0 // vbroadcastss 0x2a2e4(%rip),%ymm9 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 196,98,125,24,13,196,7,2,0 // vbroadcastss 0x207c4(%rip),%ymm9 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,213,162,2,0 // vbroadcastss 0x2a2d5(%rip),%ymm10 # 33784 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ .byte 196,98,125,24,21,181,7,2,0 // vbroadcastss 0x207b5(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,203,162,2,0 // vbroadcastss 0x2a2cb(%rip),%ymm10 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 196,98,125,24,21,171,7,2,0 // vbroadcastss 0x207ab(%rip),%ymm10 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,188,162,2,0 // vbroadcastss 0x2a2bc(%rip),%ymm11 # 3378c <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 196,98,125,24,29,156,7,2,0 // vbroadcastss 0x2079c(%rip),%ymm11 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,178,162,2,0 // vbroadcastss 0x2a2b2(%rip),%ymm11 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 196,98,125,24,29,146,7,2,0 // vbroadcastss 0x20792(%rip),%ymm11 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,163,162,2,0 // vbroadcastss 0x2a2a3(%rip),%ymm11 # 33794 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 196,98,125,24,29,131,7,2,0 // vbroadcastss 0x20783(%rip),%ymm11 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18702,13 +18702,13 @@ _sk_lerp_u8_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,111 // jne 9692 <_sk_lerp_u8_avx+0x87>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,143,162,2,0 // vpand 0x2a28f(%rip),%xmm8,%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,57,219,5,79,7,2,0 // vpand 0x2074f(%rip),%xmm8,%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,39,161,2,0 // vbroadcastss 0x2a127(%rip),%ymm9 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,13,7,6,2,0 // vbroadcastss 0x20607(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -18764,7 +18764,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde009740 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd6cc4>
+ .byte 232,255,255,255,221 // callq ffffffffde009740 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0384>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -18793,20 +18793,20 @@ _sk_lerp_565_avx:
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,240,159,2,0 // vbroadcastss 0x29ff0(%rip),%ymm9 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 196,98,125,24,13,208,4,2,0 // vbroadcastss 0x204d0(%rip),%ymm9 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,225,159,2,0 // vbroadcastss 0x29fe1(%rip),%ymm10 # 33784 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ .byte 196,98,125,24,21,193,4,2,0 // vbroadcastss 0x204c1(%rip),%ymm10 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,215,159,2,0 // vbroadcastss 0x29fd7(%rip),%ymm10 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 196,98,125,24,21,183,4,2,0 // vbroadcastss 0x204b7(%rip),%ymm10 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,200,159,2,0 // vbroadcastss 0x29fc8(%rip),%ymm11 # 3378c <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 196,98,125,24,29,168,4,2,0 // vbroadcastss 0x204a8(%rip),%ymm11 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,190,159,2,0 // vbroadcastss 0x29fbe(%rip),%ymm11 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 196,98,125,24,29,158,4,2,0 // vbroadcastss 0x2049e(%rip),%ymm11 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,175,159,2,0 // vbroadcastss 0x29faf(%rip),%ymm11 # 33794 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 196,98,125,24,29,143,4,2,0 // vbroadcastss 0x2048f(%rip),%ymm11 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18883,7 +18883,7 @@ _sk_load_tables_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,4,2,0,0 // jne 9afc <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,186,151,2,0 // vmovapd 0x297ba(%rip),%ymm9 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0x644>
+ .byte 197,125,40,13,250,0,2,0 // vmovapd 0x200fa(%rip),%ymm9 # 29a00 <_sk_srcover_rgba_8888_sse2_lowp+0x644>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -18975,7 +18975,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,142,156,2,0 // vbroadcastss 0x29c8e(%rip),%ymm7 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,61,110,1,2,0 // vbroadcastss 0x2016e(%rip),%ymm7 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -19061,7 +19061,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,124,156,2,0 // vmovdqa 0x29c7c(%rip),%xmm11 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,121,111,29,60,1,2,0 // vmovdqa 0x2013c(%rip),%xmm11 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -19155,7 +19155,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,111,153,2,0 // vbroadcastss 0x2996f(%rip),%ymm6 # 33798 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ .byte 196,226,125,24,53,79,254,1,0 // vbroadcastss 0x1fe4f(%rip),%ymm6 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -19219,7 +19219,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,124,153,2,0 // vmovdqa 0x2997c(%rip),%xmm14 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,121,111,53,60,254,1,0 // vmovdqa 0x1fe3c(%rip),%xmm14 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -19305,7 +19305,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,9,150,2,0 // vbroadcastss 0x29609(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,233,250,1,0 // vbroadcastss 0x1fae9(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -19376,7 +19376,7 @@ HIDDEN _sk_byte_tables_avx
FUNCTION(_sk_byte_tables_avx)
_sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,242,148,2,0 // vbroadcastss 0x294f2(%rip),%ymm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,5,210,249,1,0 // vbroadcastss 0x1f9d2(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -19511,7 +19511,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,98,125,24,13,170,146,2,0 // vbroadcastss 0x292aa(%rip),%ymm9 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,13,138,247,1,0 // vbroadcastss 0x1f78a(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -19639,7 +19639,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,95,144,2,0 // vbroadcastss 0x2905f(%rip),%ymm9 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,13,63,245,1,0 // vbroadcastss 0x1f53f(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1
.byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2
@@ -19876,36 +19876,36 @@ _sk_parametric_r_avx:
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11
- .byte 196,98,125,24,37,240,140,2,0 // vbroadcastss 0x28cf0(%rip),%ymm12 # 3379c <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 196,98,125,24,37,208,241,1,0 // vbroadcastss 0x1f1d0(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,230,140,2,0 // vbroadcastss 0x28ce6(%rip),%ymm12 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 196,98,125,24,37,198,241,1,0 // vbroadcastss 0x1f1c6(%rip),%ymm12 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,60,140,2,0 // vbroadcastss 0x28c3c(%rip),%ymm12 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,37,28,241,1,0 // vbroadcastss 0x1f11c(%rip),%ymm12 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,206,140,2,0 // vbroadcastss 0x28cce(%rip),%ymm12 # 337a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ .byte 196,98,125,24,37,174,241,1,0 // vbroadcastss 0x1f1ae(%rip),%ymm12 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,196,140,2,0 // vbroadcastss 0x28cc4(%rip),%ymm12 # 337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 196,98,125,24,37,164,241,1,0 // vbroadcastss 0x1f1a4(%rip),%ymm12 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,181,140,2,0 // vbroadcastss 0x28cb5(%rip),%ymm12 # 337ac <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 196,98,125,24,37,149,241,1,0 // vbroadcastss 0x1f195(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,171,140,2,0 // vbroadcastss 0x28cab(%rip),%ymm12 # 337b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 196,98,125,24,37,139,241,1,0 // vbroadcastss 0x1f18b(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,143,140,2,0 // vbroadcastss 0x28c8f(%rip),%ymm11 # 337b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 196,98,125,24,29,111,241,1,0 // vbroadcastss 0x1f16f(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,133,140,2,0 // vbroadcastss 0x28c85(%rip),%ymm11 # 337b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ .byte 196,98,125,24,29,101,241,1,0 // vbroadcastss 0x1f165(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,118,140,2,0 // vbroadcastss 0x28c76(%rip),%ymm11 # 337bc <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 196,98,125,24,29,86,241,1,0 // vbroadcastss 0x1f156(%rip),%ymm11 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,108,140,2,0 // vbroadcastss 0x28c6c(%rip),%ymm11 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 196,98,125,24,29,76,241,1,0 // vbroadcastss 0x1f14c(%rip),%ymm11 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,93,140,2,0 // vbroadcastss 0x28c5d(%rip),%ymm10 # 337c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ .byte 196,98,125,24,21,61,241,1,0 // vbroadcastss 0x1f13d(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19913,7 +19913,7 @@ _sk_parametric_r_avx:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,117,139,2,0 // vbroadcastss 0x28b75(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,85,240,1,0 // vbroadcastss 0x1f055(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19935,36 +19935,36 @@ _sk_parametric_g_avx:
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11
- .byte 196,98,125,24,37,182,139,2,0 // vbroadcastss 0x28bb6(%rip),%ymm12 # 3379c <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 196,98,125,24,37,150,240,1,0 // vbroadcastss 0x1f096(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,172,139,2,0 // vbroadcastss 0x28bac(%rip),%ymm12 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 196,98,125,24,37,140,240,1,0 // vbroadcastss 0x1f08c(%rip),%ymm12 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,2,139,2,0 // vbroadcastss 0x28b02(%rip),%ymm12 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,37,226,239,1,0 // vbroadcastss 0x1efe2(%rip),%ymm12 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,148,139,2,0 // vbroadcastss 0x28b94(%rip),%ymm12 # 337a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ .byte 196,98,125,24,37,116,240,1,0 // vbroadcastss 0x1f074(%rip),%ymm12 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,138,139,2,0 // vbroadcastss 0x28b8a(%rip),%ymm12 # 337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 196,98,125,24,37,106,240,1,0 // vbroadcastss 0x1f06a(%rip),%ymm12 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,123,139,2,0 // vbroadcastss 0x28b7b(%rip),%ymm12 # 337ac <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 196,98,125,24,37,91,240,1,0 // vbroadcastss 0x1f05b(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,113,139,2,0 // vbroadcastss 0x28b71(%rip),%ymm12 # 337b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 196,98,125,24,37,81,240,1,0 // vbroadcastss 0x1f051(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1
.byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
.byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,85,139,2,0 // vbroadcastss 0x28b55(%rip),%ymm11 # 337b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 196,98,125,24,29,53,240,1,0 // vbroadcastss 0x1f035(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,75,139,2,0 // vbroadcastss 0x28b4b(%rip),%ymm11 # 337b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ .byte 196,98,125,24,29,43,240,1,0 // vbroadcastss 0x1f02b(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,60,139,2,0 // vbroadcastss 0x28b3c(%rip),%ymm11 # 337bc <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 196,98,125,24,29,28,240,1,0 // vbroadcastss 0x1f01c(%rip),%ymm11 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,50,139,2,0 // vbroadcastss 0x28b32(%rip),%ymm11 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 196,98,125,24,29,18,240,1,0 // vbroadcastss 0x1f012(%rip),%ymm11 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,35,139,2,0 // vbroadcastss 0x28b23(%rip),%ymm10 # 337c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ .byte 196,98,125,24,21,3,240,1,0 // vbroadcastss 0x1f003(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19972,7 +19972,7 @@ _sk_parametric_g_avx:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,59,138,2,0 // vbroadcastss 0x28a3b(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,27,239,1,0 // vbroadcastss 0x1ef1b(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19994,36 +19994,36 @@ _sk_parametric_b_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 196,98,125,24,37,124,138,2,0 // vbroadcastss 0x28a7c(%rip),%ymm12 # 3379c <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 196,98,125,24,37,92,239,1,0 // vbroadcastss 0x1ef5c(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,114,138,2,0 // vbroadcastss 0x28a72(%rip),%ymm12 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 196,98,125,24,37,82,239,1,0 // vbroadcastss 0x1ef52(%rip),%ymm12 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,200,137,2,0 // vbroadcastss 0x289c8(%rip),%ymm12 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,37,168,238,1,0 // vbroadcastss 0x1eea8(%rip),%ymm12 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,90,138,2,0 // vbroadcastss 0x28a5a(%rip),%ymm12 # 337a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ .byte 196,98,125,24,37,58,239,1,0 // vbroadcastss 0x1ef3a(%rip),%ymm12 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,80,138,2,0 // vbroadcastss 0x28a50(%rip),%ymm12 # 337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 196,98,125,24,37,48,239,1,0 // vbroadcastss 0x1ef30(%rip),%ymm12 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,65,138,2,0 // vbroadcastss 0x28a41(%rip),%ymm12 # 337ac <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 196,98,125,24,37,33,239,1,0 // vbroadcastss 0x1ef21(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,55,138,2,0 // vbroadcastss 0x28a37(%rip),%ymm12 # 337b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 196,98,125,24,37,23,239,1,0 // vbroadcastss 0x1ef17(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2
.byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,27,138,2,0 // vbroadcastss 0x28a1b(%rip),%ymm11 # 337b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 196,98,125,24,29,251,238,1,0 // vbroadcastss 0x1eefb(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,17,138,2,0 // vbroadcastss 0x28a11(%rip),%ymm11 # 337b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ .byte 196,98,125,24,29,241,238,1,0 // vbroadcastss 0x1eef1(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,2,138,2,0 // vbroadcastss 0x28a02(%rip),%ymm11 # 337bc <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 196,98,125,24,29,226,238,1,0 // vbroadcastss 0x1eee2(%rip),%ymm11 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,248,137,2,0 // vbroadcastss 0x289f8(%rip),%ymm11 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 196,98,125,24,29,216,238,1,0 // vbroadcastss 0x1eed8(%rip),%ymm11 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,233,137,2,0 // vbroadcastss 0x289e9(%rip),%ymm10 # 337c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ .byte 196,98,125,24,21,201,238,1,0 // vbroadcastss 0x1eec9(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -20031,7 +20031,7 @@ _sk_parametric_b_avx:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,1,137,2,0 // vbroadcastss 0x28901(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,225,237,1,0 // vbroadcastss 0x1ede1(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20053,36 +20053,36 @@ _sk_parametric_a_avx:
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11
- .byte 196,98,125,24,37,66,137,2,0 // vbroadcastss 0x28942(%rip),%ymm12 # 3379c <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 196,98,125,24,37,34,238,1,0 // vbroadcastss 0x1ee22(%rip),%ymm12 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,56,137,2,0 // vbroadcastss 0x28938(%rip),%ymm12 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 196,98,125,24,37,24,238,1,0 // vbroadcastss 0x1ee18(%rip),%ymm12 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,142,136,2,0 // vbroadcastss 0x2888e(%rip),%ymm12 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,37,110,237,1,0 // vbroadcastss 0x1ed6e(%rip),%ymm12 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,32,137,2,0 // vbroadcastss 0x28920(%rip),%ymm12 # 337a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ .byte 196,98,125,24,37,0,238,1,0 // vbroadcastss 0x1ee00(%rip),%ymm12 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,22,137,2,0 // vbroadcastss 0x28916(%rip),%ymm12 # 337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 196,98,125,24,37,246,237,1,0 // vbroadcastss 0x1edf6(%rip),%ymm12 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,7,137,2,0 // vbroadcastss 0x28907(%rip),%ymm12 # 337ac <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 196,98,125,24,37,231,237,1,0 // vbroadcastss 0x1ede7(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,253,136,2,0 // vbroadcastss 0x288fd(%rip),%ymm12 # 337b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 196,98,125,24,37,221,237,1,0 // vbroadcastss 0x1eddd(%rip),%ymm12 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3
.byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
.byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,225,136,2,0 // vbroadcastss 0x288e1(%rip),%ymm11 # 337b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 196,98,125,24,29,193,237,1,0 // vbroadcastss 0x1edc1(%rip),%ymm11 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,215,136,2,0 // vbroadcastss 0x288d7(%rip),%ymm11 # 337b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ .byte 196,98,125,24,29,183,237,1,0 // vbroadcastss 0x1edb7(%rip),%ymm11 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,200,136,2,0 // vbroadcastss 0x288c8(%rip),%ymm11 # 337bc <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 196,98,125,24,29,168,237,1,0 // vbroadcastss 0x1eda8(%rip),%ymm11 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,190,136,2,0 // vbroadcastss 0x288be(%rip),%ymm11 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 196,98,125,24,29,158,237,1,0 // vbroadcastss 0x1ed9e(%rip),%ymm11 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,175,136,2,0 // vbroadcastss 0x288af(%rip),%ymm10 # 337c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ .byte 196,98,125,24,21,143,237,1,0 // vbroadcastss 0x1ed8f(%rip),%ymm10 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -20090,7 +20090,7 @@ _sk_parametric_a_avx:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,199,135,2,0 // vbroadcastss 0x287c7(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,167,236,1,0 // vbroadcastss 0x1eca7(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20109,34 +20109,34 @@ _sk_gamma_avx:
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,91,200 // vcvtdq2ps %ymm0,%ymm1
- .byte 196,98,125,24,5,26,136,2,0 // vbroadcastss 0x2881a(%rip),%ymm8 # 3379c <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 196,98,125,24,5,250,236,1,0 // vbroadcastss 0x1ecfa(%rip),%ymm8 # 29c7c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,16,136,2,0 // vbroadcastss 0x28810(%rip),%ymm9 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 196,98,125,24,13,240,236,1,0 // vbroadcastss 0x1ecf0(%rip),%ymm9 # 29c80 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 196,226,125,24,37,102,135,2,0 // vbroadcastss 0x28766(%rip),%ymm4 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,226,125,24,37,70,236,1,0 // vbroadcastss 0x1ec46(%rip),%ymm4 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,252,86,196 // vorps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,21,249,135,2,0 // vbroadcastss 0x287f9(%rip),%ymm10 # 337a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ .byte 196,98,125,24,21,217,236,1,0 // vbroadcastss 0x1ecd9(%rip),%ymm10 # 29c84 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,29,239,135,2,0 // vbroadcastss 0x287ef(%rip),%ymm11 # 337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ .byte 196,98,125,24,29,207,236,1,0 // vbroadcastss 0x1eccf(%rip),%ymm11 # 29c88 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,193,124,89,211 // vmulps %ymm11,%ymm0,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 196,98,125,24,37,225,135,2,0 // vbroadcastss 0x287e1(%rip),%ymm12 # 337ac <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 196,98,125,24,37,193,236,1,0 // vbroadcastss 0x1ecc1(%rip),%ymm12 # 29c8c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,215,135,2,0 // vbroadcastss 0x287d7(%rip),%ymm13 # 337b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 196,98,125,24,45,183,236,1,0 // vbroadcastss 0x1ecb7(%rip),%ymm13 # 29c90 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 197,148,94,192 // vdivps %ymm0,%ymm13,%ymm0
.byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
.byte 196,98,125,24,48 // vbroadcastss (%rax),%ymm14
.byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,241 // vsubps %ymm1,%ymm0,%ymm6
- .byte 196,98,125,24,61,182,135,2,0 // vbroadcastss 0x287b6(%rip),%ymm15 # 337b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 196,98,125,24,61,150,236,1,0 // vbroadcastss 0x1ec96(%rip),%ymm15 # 29c94 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,226,125,24,29,172,135,2,0 // vbroadcastss 0x287ac(%rip),%ymm3 # 337b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ .byte 196,226,125,24,29,140,236,1,0 // vbroadcastss 0x1ec8c(%rip),%ymm3 # 29c98 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 197,204,89,203 // vmulps %ymm3,%ymm6,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,226,125,24,21,159,135,2,0 // vbroadcastss 0x2879f(%rip),%ymm2 # 337bc <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 196,226,125,24,21,127,236,1,0 // vbroadcastss 0x1ec7f(%rip),%ymm2 # 29c9c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 197,236,92,198 // vsubps %ymm6,%ymm2,%ymm0
- .byte 196,226,125,24,53,150,135,2,0 // vbroadcastss 0x28796(%rip),%ymm6 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 196,226,125,24,53,118,236,1,0 // vbroadcastss 0x1ec76(%rip),%ymm6 # 29ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 197,204,94,192 // vdivps %ymm0,%ymm6,%ymm0
.byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
@@ -20178,7 +20178,7 @@ _sk_gamma_avx:
.byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
.byte 197,204,94,210 // vdivps %ymm2,%ymm6,%ymm2
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,217,134,2,0 // vbroadcastss 0x286d9(%rip),%ymm2 # 337c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ .byte 196,226,125,24,21,185,235,1,0 // vbroadcastss 0x1ebb9(%rip),%ymm2 # 29ca4 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 197,236,89,92,36,128 // vmulps -0x80(%rsp),%ymm2,%ymm3
.byte 197,252,89,226 // vmulps %ymm2,%ymm0,%ymm4
.byte 197,244,89,210 // vmulps %ymm2,%ymm1,%ymm2
@@ -20198,31 +20198,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,149,134,2,0 // vbroadcastss 0x28695(%rip),%ymm8 # 337c8 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
+ .byte 196,98,125,24,5,117,235,1,0 // vbroadcastss 0x1eb75(%rip),%ymm8 # 29ca8 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,243,133,2,0 // vbroadcastss 0x285f3(%rip),%ymm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,5,211,234,1,0 // vbroadcastss 0x1ead3(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,125,134,2,0 // vbroadcastss 0x2867d(%rip),%ymm9 # 337cc <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 196,98,125,24,13,93,235,1,0 // vbroadcastss 0x1eb5d(%rip),%ymm9 # 29cac <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,105,134,2,0 // vbroadcastss 0x28669(%rip),%ymm8 # 337d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 196,98,125,24,5,73,235,1,0 // vbroadcastss 0x1eb49(%rip),%ymm8 # 29cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,95,134,2,0 // vbroadcastss 0x2865f(%rip),%ymm8 # 337d4 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
+ .byte 196,98,125,24,5,63,235,1,0 // vbroadcastss 0x1eb3f(%rip),%ymm8 # 29cb4 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,85,134,2,0 // vbroadcastss 0x28655(%rip),%ymm8 # 337d8 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
+ .byte 196,98,125,24,5,53,235,1,0 // vbroadcastss 0x1eb35(%rip),%ymm8 # 29cb8 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,71,134,2,0 // vbroadcastss 0x28647(%rip),%ymm8 # 337dc <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 196,98,125,24,5,39,235,1,0 // vbroadcastss 0x1eb27(%rip),%ymm8 # 29cbc <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,48,134,2,0 // vbroadcastss 0x28630(%rip),%ymm9 # 337e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 196,98,125,24,13,16,235,1,0 // vbroadcastss 0x1eb10(%rip),%ymm9 # 29cc0 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,37,134,2,0 // vbroadcastss 0x28625(%rip),%ymm11 # 337e4 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
+ .byte 196,98,125,24,29,5,235,1,0 // vbroadcastss 0x1eb05(%rip),%ymm11 # 29cc4 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,27,134,2,0 // vbroadcastss 0x2861b(%rip),%ymm12 # 337e8 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
+ .byte 196,98,125,24,37,251,234,1,0 // vbroadcastss 0x1eafb(%rip),%ymm12 # 29cc8 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -20237,9 +20237,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,209,133,2,0 // vbroadcastss 0x285d1(%rip),%ymm0 # 337ec <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 196,226,125,24,5,177,234,1,0 // vbroadcastss 0x1eab1(%rip),%ymm0 # 29ccc <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,200,133,2,0 // vbroadcastss 0x285c8(%rip),%ymm8 # 337f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 196,98,125,24,5,168,234,1,0 // vbroadcastss 0x1eaa8(%rip),%ymm8 # 29cd0 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20257,13 +20257,13 @@ _sk_load_a8_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,68 // jne b28d <_sk_load_a8_avx+0x5c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,105,134,2,0 // vpand 0x28669(%rip),%xmm0,%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,249,219,5,41,235,1,0 // vpand 0x1eb29(%rip),%xmm0,%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,3,133,2,0 // vbroadcastss 0x28503(%rip),%ymm1 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,13,227,233,1,0 // vbroadcastss 0x1e9e3(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -20311,7 +20311,7 @@ _sk_load_a8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b334 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd88b8>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b334 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe1f78>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20335,13 +20335,13 @@ _sk_load_a8_dst_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,68 // jne b39c <_sk_load_a8_dst_avx+0x5c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,90,133,2,0 // vpand 0x2855a(%rip),%xmm4,%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,217,219,37,26,234,1,0 // vpand 0x1ea1a(%rip),%xmm4,%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,244,131,2,0 // vbroadcastss 0x283f4(%rip),%ymm5 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,45,212,232,1,0 // vbroadcastss 0x1e8d4(%rip),%ymm5 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -20389,7 +20389,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00b444 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd89c8>
+ .byte 232,255,255,255,221 // callq ffffffffde00b444 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe2088>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -20453,7 +20453,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,76,130,2,0 // vbroadcastss 0x2824c(%rip),%ymm1 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,13,44,231,1,0 // vbroadcastss 0x1e72c(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -20476,7 +20476,7 @@ _sk_store_a8_avx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,204,129,2,0 // vbroadcastss 0x281cc(%rip),%ymm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,5,172,230,1,0 // vbroadcastss 0x1e6ac(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -20501,13 +20501,13 @@ _sk_store_a8_avx:
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
.byte 235,202 // jmp b58c <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,253,130,2,0 // vpshufb 0x282fd(%rip),%xmm8,%xmm8 # 338d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
+ .byte 196,98,57,0,5,189,231,1,0 // vpshufb 0x1e7bd(%rip),%xmm8,%xmm8 # 29d90 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
.byte 235,176 // jmp b58c <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,227,130,2,0 // vpshufb 0x282e3(%rip),%xmm8,%xmm8 # 338e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 196,98,57,0,5,163,231,1,0 // vpshufb 0x1e7a3(%rip),%xmm8,%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
.byte 235,135 // jmp b58c <_sk_store_a8_avx+0x40>
.byte 15,31,0 // nopl (%rax)
@@ -20544,16 +20544,16 @@ _sk_load_g8_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,73 // jne b685 <_sk_load_g8_avx+0x61>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,118,130,2,0 // vpand 0x28276(%rip),%xmm0,%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,249,219,5,54,231,1,0 // vpand 0x1e736(%rip),%xmm0,%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,16,129,2,0 // vbroadcastss 0x28110(%rip),%ymm1 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,13,240,229,1,0 // vbroadcastss 0x1e5f0(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,141,128,2,0 // vbroadcastss 0x2808d(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,109,229,1,0 // vbroadcastss 0x1e56d(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -20598,7 +20598,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b72c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8cb0>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b72c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe2370>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20622,16 +20622,16 @@ _sk_load_g8_dst_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,73 // jne b799 <_sk_load_g8_dst_avx+0x61>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,98,129,2,0 // vpand 0x28162(%rip),%xmm4,%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 197,217,219,37,34,230,1,0 // vpand 0x1e622(%rip),%xmm4,%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,252,127,2,0 // vbroadcastss 0x27ffc(%rip),%ymm5 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,45,220,228,1,0 // vbroadcastss 0x1e4dc(%rip),%ymm5 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,121,127,2,0 // vbroadcastss 0x27f79(%rip),%ymm7 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,61,89,228,1,0 // vbroadcastss 0x1e459(%rip),%ymm7 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -20676,7 +20676,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b840 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8dc4>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00b840 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe2484>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20740,10 +20740,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,80,126,2,0 // vbroadcastss 0x27e50(%rip),%ymm1 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,226,125,24,13,48,227,1,0 // vbroadcastss 0x1e330(%rip),%ymm1 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,205,125,2,0 // vbroadcastss 0x27dcd(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,173,226,1,0 // vbroadcastss 0x1e2ad(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -20771,23 +20771,23 @@ _sk_load_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,240,125,2,0 // vbroadcastss 0x27df0(%rip),%ymm0 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 196,226,125,24,5,208,226,1,0 // vbroadcastss 0x1e2d0(%rip),%ymm0 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,227,125,2,0 // vbroadcastss 0x27de3(%rip),%ymm1 # 33784 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ .byte 196,226,125,24,13,195,226,1,0 // vbroadcastss 0x1e2c3(%rip),%ymm1 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,218,125,2,0 // vbroadcastss 0x27dda(%rip),%ymm1 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 196,226,125,24,13,186,226,1,0 // vbroadcastss 0x1e2ba(%rip),%ymm1 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,205,125,2,0 // vbroadcastss 0x27dcd(%rip),%ymm3 # 3378c <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 196,226,125,24,29,173,226,1,0 // vbroadcastss 0x1e2ad(%rip),%ymm3 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,196,125,2,0 // vbroadcastss 0x27dc4(%rip),%ymm3 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 196,226,125,24,29,164,226,1,0 // vbroadcastss 0x1e2a4(%rip),%ymm3 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,183,125,2,0 // vbroadcastss 0x27db7(%rip),%ymm3 # 33794 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 196,226,125,24,29,151,226,1,0 // vbroadcastss 0x1e297(%rip),%ymm3 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,28,125,2,0 // vbroadcastss 0x27d1c(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,252,225,1,0 // vbroadcastss 0x1e1fc(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -20853,23 +20853,23 @@ _sk_load_565_dst_avx:
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,173,124,2,0 // vbroadcastss 0x27cad(%rip),%ymm4 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 196,226,125,24,37,141,225,1,0 // vbroadcastss 0x1e18d(%rip),%ymm4 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,160,124,2,0 // vbroadcastss 0x27ca0(%rip),%ymm5 # 33784 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ .byte 196,226,125,24,45,128,225,1,0 // vbroadcastss 0x1e180(%rip),%ymm5 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,151,124,2,0 // vbroadcastss 0x27c97(%rip),%ymm5 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 196,226,125,24,45,119,225,1,0 // vbroadcastss 0x1e177(%rip),%ymm5 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,138,124,2,0 // vbroadcastss 0x27c8a(%rip),%ymm7 # 3378c <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 196,226,125,24,61,106,225,1,0 // vbroadcastss 0x1e16a(%rip),%ymm7 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,129,124,2,0 // vbroadcastss 0x27c81(%rip),%ymm7 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 196,226,125,24,61,97,225,1,0 // vbroadcastss 0x1e161(%rip),%ymm7 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,116,124,2,0 // vbroadcastss 0x27c74(%rip),%ymm7 # 33794 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 196,226,125,24,61,84,225,1,0 // vbroadcastss 0x1e154(%rip),%ymm7 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,217,123,2,0 // vbroadcastss 0x27bd9(%rip),%ymm7 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,61,185,224,1,0 // vbroadcastss 0x1e0b9(%rip),%ymm7 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -20973,23 +20973,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,207,122,2,0 // vbroadcastss 0x27acf(%rip),%ymm0 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 196,226,125,24,5,175,223,1,0 // vbroadcastss 0x1dfaf(%rip),%ymm0 # 29c60 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,194,122,2,0 // vbroadcastss 0x27ac2(%rip),%ymm1 # 33784 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ .byte 196,226,125,24,13,162,223,1,0 // vbroadcastss 0x1dfa2(%rip),%ymm1 # 29c64 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,185,122,2,0 // vbroadcastss 0x27ab9(%rip),%ymm1 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ .byte 196,226,125,24,13,153,223,1,0 // vbroadcastss 0x1df99(%rip),%ymm1 # 29c68 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,172,122,2,0 // vbroadcastss 0x27aac(%rip),%ymm3 # 3378c <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 196,226,125,24,29,140,223,1,0 // vbroadcastss 0x1df8c(%rip),%ymm3 # 29c6c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,163,122,2,0 // vbroadcastss 0x27aa3(%rip),%ymm3 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 196,226,125,24,29,131,223,1,0 // vbroadcastss 0x1df83(%rip),%ymm3 # 29c70 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,150,122,2,0 // vbroadcastss 0x27a96(%rip),%ymm3 # 33794 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 196,226,125,24,29,118,223,1,0 // vbroadcastss 0x1df76(%rip),%ymm3 # 29c74 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,251,121,2,0 // vbroadcastss 0x279fb(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,219,222,1,0 // vbroadcastss 0x1dedb(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -21008,14 +21008,14 @@ _sk_store_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,190,122,2,0 // vbroadcastss 0x27abe(%rip),%ymm8 # 337f4 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
+ .byte 196,98,125,24,5,158,223,1,0 // vbroadcastss 0x1df9e(%rip),%ymm8 # 29cd4 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
.byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,98,125,24,21,151,122,2,0 // vbroadcastss 0x27a97(%rip),%ymm10 # 337f8 <_sk_srcover_rgba_8888_sse2_lowp+0xd7c>
+ .byte 196,98,125,24,21,119,223,1,0 // vbroadcastss 0x1df77(%rip),%ymm10 # 29cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11
@@ -21094,25 +21094,25 @@ _sk_load_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,141,121,2,0 // vbroadcastss 0x2798d(%rip),%ymm0 # 337fc <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 196,226,125,24,5,109,222,1,0 // vbroadcastss 0x1de6d(%rip),%ymm0 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,128,121,2,0 // vbroadcastss 0x27980(%rip),%ymm1 # 33800 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 196,226,125,24,13,96,222,1,0 // vbroadcastss 0x1de60(%rip),%ymm1 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,119,121,2,0 // vbroadcastss 0x27977(%rip),%ymm1 # 33804 <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ .byte 196,226,125,24,13,87,222,1,0 // vbroadcastss 0x1de57(%rip),%ymm1 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,106,121,2,0 // vbroadcastss 0x2796a(%rip),%ymm2 # 33808 <_sk_srcover_rgba_8888_sse2_lowp+0xd8c>
+ .byte 196,226,125,24,21,74,222,1,0 // vbroadcastss 0x1de4a(%rip),%ymm2 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,97,121,2,0 // vbroadcastss 0x27961(%rip),%ymm2 # 3380c <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 196,226,125,24,21,65,222,1,0 // vbroadcastss 0x1de41(%rip),%ymm2 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,84,121,2,0 // vbroadcastss 0x27954(%rip),%ymm8 # 33810 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 196,98,125,24,5,52,222,1,0 // vbroadcastss 0x1de34(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,74,121,2,0 // vbroadcastss 0x2794a(%rip),%ymm8 # 33814 <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
+ .byte 196,98,125,24,5,42,222,1,0 // vbroadcastss 0x1de2a(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,60,121,2,0 // vbroadcastss 0x2793c(%rip),%ymm8 # 33818 <_sk_srcover_rgba_8888_sse2_lowp+0xd9c>
+ .byte 196,98,125,24,5,28,222,1,0 // vbroadcastss 0x1de1c(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21183,25 +21183,25 @@ _sk_load_4444_dst_avx:
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,49,120,2,0 // vbroadcastss 0x27831(%rip),%ymm4 # 337fc <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 196,226,125,24,37,17,221,1,0 // vbroadcastss 0x1dd11(%rip),%ymm4 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,36,120,2,0 // vbroadcastss 0x27824(%rip),%ymm5 # 33800 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 196,226,125,24,45,4,221,1,0 // vbroadcastss 0x1dd04(%rip),%ymm5 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,27,120,2,0 // vbroadcastss 0x2781b(%rip),%ymm5 # 33804 <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ .byte 196,226,125,24,45,251,220,1,0 // vbroadcastss 0x1dcfb(%rip),%ymm5 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,14,120,2,0 // vbroadcastss 0x2780e(%rip),%ymm6 # 33808 <_sk_srcover_rgba_8888_sse2_lowp+0xd8c>
+ .byte 196,226,125,24,53,238,220,1,0 // vbroadcastss 0x1dcee(%rip),%ymm6 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,5,120,2,0 // vbroadcastss 0x27805(%rip),%ymm6 # 3380c <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 196,226,125,24,53,229,220,1,0 // vbroadcastss 0x1dce5(%rip),%ymm6 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,248,119,2,0 // vbroadcastss 0x277f8(%rip),%ymm8 # 33810 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 196,98,125,24,5,216,220,1,0 // vbroadcastss 0x1dcd8(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,238,119,2,0 // vbroadcastss 0x277ee(%rip),%ymm8 # 33814 <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
+ .byte 196,98,125,24,5,206,220,1,0 // vbroadcastss 0x1dcce(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,224,119,2,0 // vbroadcastss 0x277e0(%rip),%ymm8 # 33818 <_sk_srcover_rgba_8888_sse2_lowp+0xd9c>
+ .byte 196,98,125,24,5,192,220,1,0 // vbroadcastss 0x1dcc0(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21307,25 +21307,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,59,118,2,0 // vbroadcastss 0x2763b(%rip),%ymm0 # 337fc <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 196,226,125,24,5,27,219,1,0 // vbroadcastss 0x1db1b(%rip),%ymm0 # 29cdc <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,46,118,2,0 // vbroadcastss 0x2762e(%rip),%ymm1 # 33800 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 196,226,125,24,13,14,219,1,0 // vbroadcastss 0x1db0e(%rip),%ymm1 # 29ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,37,118,2,0 // vbroadcastss 0x27625(%rip),%ymm1 # 33804 <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ .byte 196,226,125,24,13,5,219,1,0 // vbroadcastss 0x1db05(%rip),%ymm1 # 29ce4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,24,118,2,0 // vbroadcastss 0x27618(%rip),%ymm2 # 33808 <_sk_srcover_rgba_8888_sse2_lowp+0xd8c>
+ .byte 196,226,125,24,21,248,218,1,0 // vbroadcastss 0x1daf8(%rip),%ymm2 # 29ce8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,15,118,2,0 // vbroadcastss 0x2760f(%rip),%ymm2 # 3380c <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 196,226,125,24,21,239,218,1,0 // vbroadcastss 0x1daef(%rip),%ymm2 # 29cec <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,2,118,2,0 // vbroadcastss 0x27602(%rip),%ymm8 # 33810 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 196,98,125,24,5,226,218,1,0 // vbroadcastss 0x1dae2(%rip),%ymm8 # 29cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,248,117,2,0 // vbroadcastss 0x275f8(%rip),%ymm8 # 33814 <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
+ .byte 196,98,125,24,5,216,218,1,0 // vbroadcastss 0x1dad8(%rip),%ymm8 # 29cf4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,234,117,2,0 // vbroadcastss 0x275ea(%rip),%ymm8 # 33818 <_sk_srcover_rgba_8888_sse2_lowp+0xd9c>
+ .byte 196,98,125,24,5,202,218,1,0 // vbroadcastss 0x1daca(%rip),%ymm8 # 29cf8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -21346,7 +21346,7 @@ _sk_store_4444_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,190,117,2,0 // vbroadcastss 0x275be(%rip),%ymm8 # 3381c <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ .byte 196,98,125,24,5,158,218,1,0 // vbroadcastss 0x1da9e(%rip),%ymm8 # 29cfc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10
@@ -21414,7 +21414,7 @@ _sk_store_4444_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100c36c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd98f0>
+ .byte 232,255,255,255,224 // callq ffffffffe100c36c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe2fb0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -21433,10 +21433,10 @@ _sk_load_8888_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,135,0,0,0 // jne c417 <_sk_load_8888_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,66,109,2,0 // vmovapd 0x26d42(%rip),%ymm10 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0x664>
+ .byte 197,125,40,21,130,214,1,0 // vmovapd 0x1d682(%rip),%ymm10 # 29a20 <_sk_srcover_rgba_8888_sse2_lowp+0x664>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,204,115,2,0 // vbroadcastss 0x273cc(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,172,216,1,0 // vbroadcastss 0x1d8ac(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -21528,10 +21528,10 @@ _sk_load_8888_dst_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,135,0,0,0 // jne c58f <_sk_load_8888_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,234,107,2,0 // vmovapd 0x26bea(%rip),%ymm10 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0x684>
+ .byte 197,125,40,21,42,213,1,0 // vmovapd 0x1d52a(%rip),%ymm10 # 29a40 <_sk_srcover_rgba_8888_sse2_lowp+0x684>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,84,114,2,0 // vbroadcastss 0x27254(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,52,215,1,0 // vbroadcastss 0x1d734(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -21650,10 +21650,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,14,106,2,0 // vmovaps 0x26a0e(%rip),%ymm10 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0x6a4>
+ .byte 197,124,40,21,78,211,1,0 // vmovaps 0x1d34e(%rip),%ymm10 # 29a60 <_sk_srcover_rgba_8888_sse2_lowp+0x6a4>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,88,112,2,0 // vbroadcastss 0x27058(%rip),%ymm9 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,13,56,213,1,0 // vbroadcastss 0x1d538(%rip),%ymm9 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -21690,7 +21690,7 @@ _sk_store_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,136,111,2,0 // vbroadcastss 0x26f88(%rip),%ymm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,5,104,212,1,0 // vbroadcastss 0x1d468(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -21778,10 +21778,10 @@ _sk_load_bgra_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,135,0,0,0 // jne c96b <_sk_load_bgra_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,78,104,2,0 // vmovapd 0x2684e(%rip),%ymm10 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x6c4>
+ .byte 197,125,40,21,142,209,1,0 // vmovapd 0x1d18e(%rip),%ymm10 # 29a80 <_sk_srcover_rgba_8888_sse2_lowp+0x6c4>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,120,110,2,0 // vbroadcastss 0x26e78(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,88,211,1,0 // vbroadcastss 0x1d358(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -21873,10 +21873,10 @@ _sk_load_bgra_dst_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,135,0,0,0 // jne cae3 <_sk_load_bgra_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,246,102,2,0 // vmovapd 0x266f6(%rip),%ymm10 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x6e4>
+ .byte 197,125,40,21,54,208,1,0 // vmovapd 0x1d036(%rip),%ymm10 # 29aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x6e4>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,0,109,2,0 // vbroadcastss 0x26d00(%rip),%ymm8 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,5,224,209,1,0 // vbroadcastss 0x1d1e0(%rip),%ymm8 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -21995,10 +21995,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,26,101,2,0 // vmovaps 0x2651a(%rip),%ymm9 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x704>
+ .byte 197,124,40,13,90,206,1,0 // vmovaps 0x1ce5a(%rip),%ymm9 # 29ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x704>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,4,107,2,0 // vbroadcastss 0x26b04(%rip),%ymm10 # 3377c <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 196,98,125,24,21,228,207,1,0 // vbroadcastss 0x1cfe4(%rip),%ymm10 # 29c5c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -22035,7 +22035,7 @@ _sk_store_bgra_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,52,106,2,0 // vbroadcastss 0x26a34(%rip),%ymm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 196,98,125,24,5,20,207,1,0 // vbroadcastss 0x1cf14(%rip),%ymm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -22143,14 +22143,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,43,115,2,0 // vmovddup 0x2732b(%rip),%xmm10 # 341d8 <_sk_srcover_rgba_8888_sse2_lowp+0x175c>
+ .byte 197,123,18,21,251,214,1,0 // vmovddup 0x1d6fb(%rip),%xmm10 # 2a5a8 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,201,105,2,0 // vbroadcastss 0x269c9(%rip),%xmm11 # 33884 <_sk_srcover_rgba_8888_sse2_lowp+0xe08>
+ .byte 196,98,121,24,29,169,206,1,0 // vbroadcastss 0x1cea9(%rip),%xmm11 # 29d64 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,10,115,2,0 // vmovddup 0x2730a(%rip),%xmm12 # 341e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1764>
+ .byte 197,123,18,37,218,214,1,0 // vmovddup 0x1d6da(%rip),%xmm12 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -22159,7 +22159,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,131,105,2,0 // vbroadcastss 0x26983(%rip),%xmm3 # 33888 <_sk_srcover_rgba_8888_sse2_lowp+0xe0c>
+ .byte 196,226,121,24,29,99,206,1,0 // vbroadcastss 0x1ce63(%rip),%xmm3 # 29d68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -22296,14 +22296,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,84,112,2,0 // vmovddup 0x27054(%rip),%xmm10 # 341d8 <_sk_srcover_rgba_8888_sse2_lowp+0x175c>
+ .byte 197,123,18,21,36,212,1,0 // vmovddup 0x1d424(%rip),%xmm10 # 2a5a8 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,242,102,2,0 // vbroadcastss 0x266f2(%rip),%xmm11 # 33884 <_sk_srcover_rgba_8888_sse2_lowp+0xe08>
+ .byte 196,98,121,24,29,210,203,1,0 // vbroadcastss 0x1cbd2(%rip),%xmm11 # 29d64 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,51,112,2,0 // vmovddup 0x27033(%rip),%xmm12 # 341e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1764>
+ .byte 197,123,18,37,3,212,1,0 // vmovddup 0x1d403(%rip),%xmm12 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -22312,7 +22312,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,172,102,2,0 // vbroadcastss 0x266ac(%rip),%xmm7 # 33888 <_sk_srcover_rgba_8888_sse2_lowp+0xe0c>
+ .byte 196,226,121,24,61,140,203,1,0 // vbroadcastss 0x1cb8c(%rip),%xmm7 # 29d68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -22475,14 +22475,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,17,109,2,0 // vmovddup 0x26d11(%rip),%xmm10 # 341d8 <_sk_srcover_rgba_8888_sse2_lowp+0x175c>
+ .byte 197,123,18,21,225,208,1,0 // vmovddup 0x1d0e1(%rip),%xmm10 # 2a5a8 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,175,99,2,0 // vbroadcastss 0x263af(%rip),%xmm11 # 33884 <_sk_srcover_rgba_8888_sse2_lowp+0xe08>
+ .byte 196,98,121,24,29,143,200,1,0 // vbroadcastss 0x1c88f(%rip),%xmm11 # 29d64 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,105,219,202 // vpand %xmm10,%xmm2,%xmm1
.byte 197,33,102,233 // vpcmpgtd %xmm1,%xmm11,%xmm13
.byte 196,195,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm4
- .byte 197,123,18,37,240,108,2,0 // vmovddup 0x26cf0(%rip),%xmm12 # 341e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1764>
+ .byte 197,123,18,37,192,208,1,0 // vmovddup 0x1d0c0(%rip),%xmm12 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 196,193,105,219,212 // vpand %xmm12,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -22491,7 +22491,7 @@ _sk_gather_f16_avx:
.byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,105,99,2,0 // vbroadcastss 0x26369(%rip),%xmm3 # 33888 <_sk_srcover_rgba_8888_sse2_lowp+0xe0c>
+ .byte 196,226,121,24,29,73,200,1,0 // vbroadcastss 0x1c849(%rip),%xmm3 # 29d68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -22581,12 +22581,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,171,97,2,0 // vbroadcastss 0x261ab(%rip),%ymm8 # 33860 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 196,98,125,24,5,139,198,1,0 // vbroadcastss 0x1c68b(%rip),%ymm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,201,97,2,0 // vbroadcastss 0x261c9(%rip),%ymm10 # 3388c <_sk_srcover_rgba_8888_sse2_lowp+0xe10>
+ .byte 196,98,125,24,21,169,198,1,0 // vbroadcastss 0x1c6a9(%rip),%ymm10 # 29d6c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,185,97,2,0 // vbroadcastss 0x261b9(%rip),%xmm9 # 33890 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
+ .byte 196,98,121,24,13,153,198,1,0 // vbroadcastss 0x1c699(%rip),%xmm9 # 29d70 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -22597,7 +22597,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,124,97,2,0 // vbroadcastss 0x2617c(%rip),%xmm11 # 33894 <_sk_srcover_rgba_8888_sse2_lowp+0xe18>
+ .byte 196,98,121,24,29,92,198,1,0 // vbroadcastss 0x1c65c(%rip),%xmm11 # 29d74 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -22748,7 +22748,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,195,93,2,0 // vbroadcastss 0x25dc3(%rip),%ymm9 # 33798 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ .byte 196,98,125,24,13,163,194,1,0 // vbroadcastss 0x1c2a3(%rip),%ymm9 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -22852,7 +22852,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,242,91,2,0 // vbroadcastss 0x25bf2(%rip),%ymm9 # 33798 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ .byte 196,98,125,24,13,210,192,1,0 // vbroadcastss 0x1c0d2(%rip),%ymm9 # 29c78 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -22874,7 +22874,7 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,246,90,2,0 // vbroadcastss 0x25af6(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,214,191,1,0 // vbroadcastss 0x1bfd6(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
@@ -22950,7 +22950,7 @@ _sk_store_u16_be_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,187,90,2,0 // vbroadcastss 0x25abb(%rip),%ymm8 # 33820 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 196,98,125,24,5,155,191,1,0 // vbroadcastss 0x1bf9b(%rip),%ymm8 # 29d00 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -23363,7 +23363,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,39,83,2,0 // vmulss 0x25327(%rip),%xmm9,%xmm0 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 197,178,89,5,7,184,1,0 // vmulss 0x1b807(%rip),%xmm9,%xmm0 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -23397,7 +23397,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,154,82,2,0 // vmulss 0x2529a(%rip),%xmm9,%xmm1 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 197,178,89,13,122,183,1,0 // vmulss 0x1b77a(%rip),%xmm9,%xmm1 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -23424,7 +23424,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,52,82,2,0 // vbroadcastss 0x25234(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,20,183,1,0 // vbroadcastss 0x1b714(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -23442,9 +23442,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,43,82,2,0 // vbroadcastss 0x2522b(%rip),%ymm8 # 33720 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 196,98,125,24,5,11,183,1,0 // vbroadcastss 0x1b70b(%rip),%ymm8 # 29c00 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,1,82,2,0 // vbroadcastss 0x25201(%rip),%ymm9 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,13,225,182,1,0 // vbroadcastss 0x1b6e1(%rip),%ymm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -23460,12 +23460,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,237,82,2,0 // vbroadcastss 0x252ed(%rip),%ymm3 # 33824 <_sk_srcover_rgba_8888_sse2_lowp+0xda8>
+ .byte 196,226,125,24,29,205,183,1,0 // vbroadcastss 0x1b7cd(%rip),%ymm3 # 29d04 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,228,82,2,0 // vbroadcastss 0x252e4(%rip),%ymm3 # 33828 <_sk_srcover_rgba_8888_sse2_lowp+0xdac>
+ .byte 196,226,125,24,29,196,183,1,0 // vbroadcastss 0x1b7c4(%rip),%ymm3 # 29d08 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,215,82,2,0 // vbroadcastss 0x252d7(%rip),%ymm1 # 3382c <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 196,226,125,24,13,183,183,1,0 // vbroadcastss 0x1b7b7(%rip),%ymm1 # 29d0c <_sk_srcover_rgba_8888_sse2_lowp+0x950>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23873,18 +23873,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,242,75,2,0 // vbroadcastss 0x24bf2(%rip),%ymm0 # 33834 <_sk_srcover_rgba_8888_sse2_lowp+0xdb8>
+ .byte 196,226,125,24,5,210,176,1,0 // vbroadcastss 0x1b0d2(%rip),%ymm0 # 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,225,75,2,0 // vbroadcastss 0x24be1(%rip),%ymm1 # 33830 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 196,226,125,24,13,193,176,1,0 // vbroadcastss 0x1b0c1(%rip),%ymm1 # 29d10 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,216,75,2,0 // vbroadcastss 0x24bd8(%rip),%ymm1 # 33838 <_sk_srcover_rgba_8888_sse2_lowp+0xdbc>
+ .byte 196,226,125,24,13,184,176,1,0 // vbroadcastss 0x1b0b8(%rip),%ymm1 # 29d18 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,203,75,2,0 // vbroadcastss 0x24bcb(%rip),%ymm1 # 3383c <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ .byte 196,226,125,24,13,171,176,1,0 // vbroadcastss 0x1b0ab(%rip),%ymm1 # 29d1c <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,190,75,2,0 // vbroadcastss 0x24bbe(%rip),%ymm1 # 33840 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 196,226,125,24,13,158,176,1,0 // vbroadcastss 0x1b09e(%rip),%ymm1 # 29d20 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -23911,7 +23911,7 @@ _sk_gradient_avx:
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,63,74,2,0 // vbroadcastss 0x24a3f(%rip),%ymm10 # 3370c <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ .byte 196,98,125,24,21,31,175,1,0 // vbroadcastss 0x1af1f(%rip),%ymm10 # 29bec <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -24105,27 +24105,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,105,71,2,0 // vbroadcastss 0x24769(%rip),%ymm13 # 33844 <_sk_srcover_rgba_8888_sse2_lowp+0xdc8>
+ .byte 196,98,125,24,45,73,172,1,0 // vbroadcastss 0x1ac49(%rip),%ymm13 # 29d24 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,95,71,2,0 // vbroadcastss 0x2475f(%rip),%ymm14 # 33848 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
+ .byte 196,98,125,24,53,63,172,1,0 // vbroadcastss 0x1ac3f(%rip),%ymm14 # 29d28 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,80,71,2,0 // vbroadcastss 0x24750(%rip),%ymm14 # 3384c <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ .byte 196,98,125,24,53,48,172,1,0 // vbroadcastss 0x1ac30(%rip),%ymm14 # 29d2c <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,65,71,2,0 // vbroadcastss 0x24741(%rip),%ymm13 # 33850 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 196,98,125,24,45,33,172,1,0 // vbroadcastss 0x1ac21(%rip),%ymm13 # 29d30 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,44,71,2,0 // vbroadcastss 0x2472c(%rip),%ymm10 # 33854 <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
+ .byte 196,98,125,24,21,12,172,1,0 // vbroadcastss 0x1ac0c(%rip),%ymm10 # 29d34 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,194,69,2,0 // vbroadcastss 0x245c2(%rip),%ymm10 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,21,162,170,1,0 // vbroadcastss 0x1aaa2(%rip),%ymm10 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,172,69,2,0 // vbroadcastss 0x245ac(%rip),%ymm10 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,21,140,170,1,0 // vbroadcastss 0x1aa8c(%rip),%ymm10 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -24155,7 +24155,7 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,162,70,2,0 // vbroadcastss 0x246a2(%rip),%ymm11 # 33858 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ .byte 196,98,125,24,29,130,171,1,0 // vbroadcastss 0x1ab82(%rip),%ymm11 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -24164,17 +24164,17 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,118,70,2,0 // vbroadcastss 0x24676(%rip),%ymm9 # 3385c <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ .byte 196,98,125,24,13,86,171,1,0 // vbroadcastss 0x1ab56(%rip),%ymm9 # 29d3c <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,84,70,2,0 // vbroadcastss 0x24654(%rip),%ymm9 # 33860 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 196,98,125,24,13,52,171,1,0 // vbroadcastss 0x1ab34(%rip),%ymm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,229,68,2,0 // vbroadcastss 0x244e5(%rip),%ymm11 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,29,197,169,1,0 // vbroadcastss 0x1a9c5(%rip),%ymm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -24194,7 +24194,7 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,244,69,2,0 // vbroadcastss 0x245f4(%rip),%ymm11 # 33858 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ .byte 196,98,125,24,29,212,170,1,0 // vbroadcastss 0x1aad4(%rip),%ymm11 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -24203,17 +24203,17 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,200,69,2,0 // vbroadcastss 0x245c8(%rip),%ymm9 # 3385c <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ .byte 196,98,125,24,13,168,170,1,0 // vbroadcastss 0x1aaa8(%rip),%ymm9 # 29d3c <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,166,69,2,0 // vbroadcastss 0x245a6(%rip),%ymm9 # 33860 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 196,98,125,24,13,134,170,1,0 // vbroadcastss 0x1aa86(%rip),%ymm9 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,55,68,2,0 // vbroadcastss 0x24437(%rip),%ymm11 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,29,23,169,1,0 // vbroadcastss 0x1a917(%rip),%ymm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -24232,7 +24232,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,76,69,2,0 // vbroadcastss 0x2454c(%rip),%ymm10 # 33858 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ .byte 196,98,125,24,21,44,170,1,0 // vbroadcastss 0x1aa2c(%rip),%ymm10 # 29d38 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -24241,7 +24241,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,36,69,2,0 // vbroadcastss 0x24524(%rip),%ymm8 # 33860 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 196,98,125,24,5,4,170,1,0 // vbroadcastss 0x1aa04(%rip),%ymm8 # 29d40 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24282,7 +24282,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,96,67,2,0 // vbroadcastss 0x24360(%rip),%ymm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,5,64,168,1,0 // vbroadcastss 0x1a840(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -24319,9 +24319,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,72,68,2,0 // vbroadcastss 0x24448(%rip),%ymm0 # 33864 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ .byte 196,226,125,24,5,40,169,1,0 // vbroadcastss 0x1a928(%rip),%ymm0 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,223,66,2,0 // vbroadcastss 0x242df(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,191,167,1,0 // vbroadcastss 0x1a7bf(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24332,7 +24332,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,191,66,2,0 // vbroadcastss 0x242bf(%rip),%ymm0 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,226,125,24,5,159,167,1,0 // vbroadcastss 0x1a79f(%rip),%ymm0 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -24344,9 +24344,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,255,67,2,0 // vbroadcastss 0x243ff(%rip),%ymm1 # 33864 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ .byte 196,226,125,24,13,223,168,1,0 // vbroadcastss 0x1a8df(%rip),%ymm1 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,149,66,2,0 // vbroadcastss 0x24295(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,117,167,1,0 // vbroadcastss 0x1a775(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24357,7 +24357,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,117,66,2,0 // vbroadcastss 0x24275(%rip),%ymm1 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,226,125,24,13,85,167,1,0 // vbroadcastss 0x1a755(%rip),%ymm1 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -24369,14 +24369,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,184,67,2,0 // vbroadcastss 0x243b8(%rip),%ymm0 # 33868 <_sk_srcover_rgba_8888_sse2_lowp+0xdec>
+ .byte 196,226,125,24,5,152,168,1,0 // vbroadcastss 0x1a898(%rip),%ymm0 # 29d48 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,75,66,2,0 // vbroadcastss 0x2424b(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,43,167,1,0 // vbroadcastss 0x1a72b(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,156,67,2,0 // vbroadcastss 0x2439c(%rip),%ymm10 # 3386c <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 196,98,125,24,21,124,168,1,0 // vbroadcastss 0x1a87c(%rip),%ymm10 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,154,66,2,0 // vbroadcastss 0x2429a(%rip),%ymm10 # 33778 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ .byte 196,98,125,24,21,122,167,1,0 // vbroadcastss 0x1a77a(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -24388,19 +24388,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,101,67,2,0 // vbroadcastss 0x24365(%rip),%ymm0 # 33864 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ .byte 196,226,125,24,5,69,168,1,0 // vbroadcastss 0x1a845(%rip),%ymm0 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,252,65,2,0 // vbroadcastss 0x241fc(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,220,166,1,0 // vbroadcastss 0x1a6dc(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,90,67,2,0 // vbroadcastss 0x2435a(%rip),%ymm9 # 33874 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
+ .byte 196,98,125,24,13,58,168,1,0 // vbroadcastss 0x1a83a(%rip),%ymm9 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,72,67,2,0 // vbroadcastss 0x24348(%rip),%ymm10 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 196,98,125,24,21,40,168,1,0 // vbroadcastss 0x1a828(%rip),%ymm10 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,201,65,2,0 // vbroadcastss 0x241c9(%rip),%ymm10 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,21,169,166,1,0 // vbroadcastss 0x1a6a9(%rip),%ymm10 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,42,67,2,0 // vbroadcastss 0x2432a(%rip),%ymm9 # 33878 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
+ .byte 196,98,125,24,13,10,168,1,0 // vbroadcastss 0x1a80a(%rip),%ymm9 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24411,17 +24411,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,154,65,2,0 // vbroadcastss 0x2419a(%rip),%ymm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,5,122,166,1,0 // vbroadcastss 0x1a67a(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,248,66,2,0 // vbroadcastss 0x242f8(%rip),%ymm10 # 33874 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
+ .byte 196,98,125,24,21,216,167,1,0 // vbroadcastss 0x1a7d8(%rip),%ymm10 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,230,66,2,0 // vbroadcastss 0x242e6(%rip),%ymm11 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 196,98,125,24,29,198,167,1,0 // vbroadcastss 0x1a7c6(%rip),%ymm11 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,209,66,2,0 // vbroadcastss 0x242d1(%rip),%ymm9 # 33878 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
+ .byte 196,98,125,24,13,177,167,1,0 // vbroadcastss 0x1a7b1(%rip),%ymm9 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24432,13 +24432,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,173,66,2,0 // vbroadcastss 0x242ad(%rip),%ymm0 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 196,226,125,24,5,141,167,1,0 // vbroadcastss 0x1a78d(%rip),%ymm0 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,146,66,2,0 // vbroadcastss 0x24292(%rip),%ymm10 # 3386c <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 196,98,125,24,21,114,167,1,0 // vbroadcastss 0x1a772(%rip),%ymm10 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,144,65,2,0 // vbroadcastss 0x24190(%rip),%ymm10 # 33778 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ .byte 196,98,125,24,21,112,166,1,0 // vbroadcastss 0x1a670(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -24450,14 +24450,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,95,66,2,0 // vbroadcastss 0x2425f(%rip),%ymm1 # 33868 <_sk_srcover_rgba_8888_sse2_lowp+0xdec>
+ .byte 196,226,125,24,13,63,167,1,0 // vbroadcastss 0x1a73f(%rip),%ymm1 # 29d48 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,241,64,2,0 // vbroadcastss 0x240f1(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,209,165,1,0 // vbroadcastss 0x1a5d1(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,66,66,2,0 // vbroadcastss 0x24242(%rip),%ymm10 # 3386c <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 196,98,125,24,21,34,167,1,0 // vbroadcastss 0x1a722(%rip),%ymm10 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,64,65,2,0 // vbroadcastss 0x24140(%rip),%ymm10 # 33778 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ .byte 196,98,125,24,21,32,166,1,0 // vbroadcastss 0x1a620(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -24469,19 +24469,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,11,66,2,0 // vbroadcastss 0x2420b(%rip),%ymm1 # 33864 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ .byte 196,226,125,24,13,235,166,1,0 // vbroadcastss 0x1a6eb(%rip),%ymm1 # 29d44 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,161,64,2,0 // vbroadcastss 0x240a1(%rip),%ymm8 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,98,125,24,5,129,165,1,0 // vbroadcastss 0x1a581(%rip),%ymm8 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,255,65,2,0 // vbroadcastss 0x241ff(%rip),%ymm9 # 33874 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
+ .byte 196,98,125,24,13,223,166,1,0 // vbroadcastss 0x1a6df(%rip),%ymm9 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,237,65,2,0 // vbroadcastss 0x241ed(%rip),%ymm10 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 196,98,125,24,21,205,166,1,0 // vbroadcastss 0x1a6cd(%rip),%ymm10 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,110,64,2,0 // vbroadcastss 0x2406e(%rip),%ymm10 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,21,78,165,1,0 // vbroadcastss 0x1a54e(%rip),%ymm10 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,207,65,2,0 // vbroadcastss 0x241cf(%rip),%ymm9 # 33878 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
+ .byte 196,98,125,24,13,175,166,1,0 // vbroadcastss 0x1a6af(%rip),%ymm9 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24492,17 +24492,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,63,64,2,0 // vbroadcastss 0x2403f(%rip),%ymm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 196,98,125,24,5,31,165,1,0 // vbroadcastss 0x1a51f(%rip),%ymm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,156,65,2,0 // vbroadcastss 0x2419c(%rip),%ymm10 # 33874 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
+ .byte 196,98,125,24,21,124,166,1,0 // vbroadcastss 0x1a67c(%rip),%ymm10 # 29d54 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,138,65,2,0 // vbroadcastss 0x2418a(%rip),%ymm11 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 196,98,125,24,29,106,166,1,0 // vbroadcastss 0x1a66a(%rip),%ymm11 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,117,65,2,0 // vbroadcastss 0x24175(%rip),%ymm9 # 33878 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
+ .byte 196,98,125,24,13,85,166,1,0 // vbroadcastss 0x1a655(%rip),%ymm9 # 29d58 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24513,13 +24513,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,81,65,2,0 // vbroadcastss 0x24151(%rip),%ymm1 # 33870 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 196,226,125,24,13,49,166,1,0 // vbroadcastss 0x1a631(%rip),%ymm1 # 29d50 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,53,65,2,0 // vbroadcastss 0x24135(%rip),%ymm10 # 3386c <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 196,98,125,24,21,21,166,1,0 // vbroadcastss 0x1a615(%rip),%ymm10 # 29d4c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,51,64,2,0 // vbroadcastss 0x24033(%rip),%ymm10 # 33778 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ .byte 196,98,125,24,21,19,165,1,0 // vbroadcastss 0x1a513(%rip),%ymm10 # 29c58 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -24667,7 +24667,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,205,62,2,0 // vbroadcastss 0x23ecd(%rip),%xmm4 # 33880 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 196,226,121,24,37,173,163,1,0 // vbroadcastss 0x1a3ad(%rip),%xmm4 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -24721,7 +24721,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,54,60,2,0 // vbroadcastss 0x23c36(%rip),%xmm10 # 33714 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ .byte 196,98,121,24,21,22,161,1,0 // vbroadcastss 0x1a116(%rip),%xmm10 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -24749,7 +24749,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,10,61,2,0 // vbroadcastss 0x23d0a(%rip),%ymm7 # 3387c <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+ .byte 196,226,125,24,61,234,161,1,0 // vbroadcastss 0x1a1ea(%rip),%ymm7 # 29d5c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -25492,7 +25492,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,206,45,2,0 // vbroadcastss 0x22dce(%rip),%xmm9 # 33880 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 196,98,121,24,13,174,146,1,0 // vbroadcastss 0x192ae(%rip),%xmm9 # 29d60 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -25549,7 +25549,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,39,43,2,0 // vbroadcastss 0x22b27(%rip),%xmm10 # 33714 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ .byte 196,98,121,24,21,7,144,1,0 // vbroadcastss 0x19007(%rip),%xmm10 # 29bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -25577,7 +25577,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,251,43,2,0 // vbroadcastss 0x22bfb(%rip),%ymm12 # 3387c <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+ .byte 196,98,125,24,37,219,144,1,0 // vbroadcastss 0x190db(%rip),%ymm12 # 29d5c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -26975,7 +26975,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,72,13,2,0 // vbroadcastss 0x20d48(%rip),%ymm3 # 33708 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ .byte 196,226,125,24,29,40,114,1,0 // vbroadcastss 0x17228(%rip),%ymm3 # 29be8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -27057,13 +27057,13 @@ _sk_seed_shader_sse41:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,119,14,2,0 // addps 0x20e77(%rip),%xmm0 # 33910 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 15,88,5,55,115,1,0 // addps 0x17337(%rip),%xmm0 # 29dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,116,14,2,0 // addps 0x20e74(%rip),%xmm1 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,88,13,52,115,1,0 // addps 0x17334(%rip),%xmm1 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,123,14,2,0 // movaps 0x20e7b(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,21,59,115,1,0 // movaps 0x1733b(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -27078,18 +27078,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,20,14,2,0 // paddd 0x20e14(%rip),%xmm8 # 338f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 102,68,15,254,5,212,114,1,0 // paddd 0x172d4(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,75,14,2,0 // movdqa 0x20e4b(%rip),%xmm10 # 33940 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 102,68,15,111,21,11,115,1,0 // movdqa 0x1730b(%rip),%xmm10 # 29e00 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,55,14,2,0 // movdqa 0x20e37(%rip),%xmm12 # 33950 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
- .byte 102,68,15,111,45,62,14,2,0 // movdqa 0x20e3e(%rip),%xmm13 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,37,247,114,1,0 // movdqa 0x172f7(%rip),%xmm12 # 29e10 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
+ .byte 102,68,15,111,45,254,114,1,0 // movdqa 0x172fe(%rip),%xmm13 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -27105,8 +27105,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,249,13,2,0 // mulps 0x20df9(%rip),%xmm8 # 33970 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
- .byte 68,15,88,5,1,14,2,0 // addps 0x20e01(%rip),%xmm8 # 33980 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 68,15,89,5,185,114,1,0 // mulps 0x172b9(%rip),%xmm8 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
+ .byte 68,15,88,5,193,114,1,0 // addps 0x172c1(%rip),%xmm8 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -27148,7 +27148,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,55,13,2,0 // movaps 0x20d37(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,247,113,1,0 // movaps 0x171f7(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -27159,7 +27159,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,35,13,2,0 // movaps 0x20d23(%rip),%xmm0 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,5,227,113,1,0 // movaps 0x171e3(%rip),%xmm0 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -27205,7 +27205,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,211,12,2,0 // movaps 0x20cd3(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,147,113,1,0 // movaps 0x17193(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -27230,7 +27230,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,134,12,2,0 // movaps 0x20c86(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,70,113,1,0 // movaps 0x17146(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -27277,7 +27277,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,26,12,2,0 // movaps 0x20c1a(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,218,112,1,0 // movaps 0x170da(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -27290,7 +27290,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,250,11,2,0 // movaps 0x20bfa(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,186,112,1,0 // movaps 0x170ba(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -27307,7 +27307,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,205,11,2,0 // movaps 0x20bcd(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,141,112,1,0 // movaps 0x1708d(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -27327,7 +27327,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,145,11,2,0 // movaps 0x20b91(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,81,112,1,0 // movaps 0x17051(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -27355,7 +27355,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,85,11,2,0 // movaps 0x20b55(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,21,112,1,0 // movaps 0x17015(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -27393,7 +27393,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,214,10,2,0 // movaps 0x20ad6(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,150,111,1,0 // movaps 0x16f96(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -27435,7 +27435,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,98,10,2,0 // movaps 0x20a62(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,34,111,1,0 // movaps 0x16f22(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -27483,7 +27483,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,189,9,2,0 // movaps 0x209bd(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,21,125,110,1,0 // movaps 0x16e7d(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27517,7 +27517,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,82,9,2,0 // movaps 0x20952(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,21,18,110,1,0 // movaps 0x16e12(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27554,7 +27554,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,220,8,2,0 // movaps 0x208dc(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,21,156,109,1,0 // movaps 0x16d9c(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27582,7 +27582,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,140,8,2,0 // movaps 0x2088c(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,21,76,109,1,0 // movaps 0x16d4c(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27594,7 +27594,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,115,8,2,0 // movaps 0x20873(%rip),%xmm11 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,29,51,109,1,0 // movaps 0x16d33(%rip),%xmm11 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -27678,7 +27678,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,61,7,2,0 // movaps 0x2073d(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,253,107,1,0 // movaps 0x16bfd(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -27760,7 +27760,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,8,6,2,0 // movaps 0x20608(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,200,106,1,0 // movaps 0x16ac8(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -27843,7 +27843,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,221,4,2,0 // movaps 0x204dd(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,157,105,1,0 // movaps 0x1699d(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -27928,7 +27928,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,164,3,2,0 // movaps 0x203a4(%rip),%xmm1 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,13,100,104,1,0 // movaps 0x16864(%rip),%xmm1 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -27941,10 +27941,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,210,3,2,0 // movaps 0x203d2(%rip),%xmm13 # 33990 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 68,15,40,45,146,104,1,0 // movaps 0x16892(%rip),%xmm13 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,210,3,2,0 // movaps 0x203d2(%rip),%xmm12 # 339a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 68,15,40,37,146,104,1,0 // movaps 0x16892(%rip),%xmm12 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -28130,12 +28130,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,61,1,2,0 // movaps 0x2013d(%rip),%xmm0 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,40,5,253,101,1,0 // movaps 0x165fd(%rip),%xmm0 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,66,1,2,0 // movaps 0x20142(%rip),%xmm2 # 339c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 15,40,21,2,102,1,0 // movaps 0x16602(%rip),%xmm2 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,67,1,2,0 // movaps 0x20143(%rip),%xmm14 # 339d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,53,3,102,1,0 // movaps 0x16603(%rip),%xmm14 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -28218,7 +28218,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,87,255,1,0 // movaps 0x1ff57(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,23,100,1,0 // movaps 0x16417(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -28312,14 +28312,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,129,254,1,0 // movaps 0x1fe81(%rip),%xmm2 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,40,21,65,99,1,0 // movaps 0x16341(%rip),%xmm2 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,132,254,1,0 // movaps 0x1fe84(%rip),%xmm1 # 339c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 15,40,13,68,99,1,0 // movaps 0x16344(%rip),%xmm1 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,131,254,1,0 // movaps 0x1fe83(%rip),%xmm13 # 339d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,45,67,99,1,0 // movaps 0x16343(%rip),%xmm13 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -28400,7 +28400,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,153,252,1,0 // movaps 0x1fc99(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,89,97,1,0 // movaps 0x16159(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -28455,14 +28455,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,84,252,1,0 // movaps 0x1fc54(%rip),%xmm9 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,40,13,20,97,1,0 // movaps 0x16114(%rip),%xmm9 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,84,252,1,0 // movaps 0x1fc54(%rip),%xmm10 # 339c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 68,15,40,21,20,97,1,0 // movaps 0x16114(%rip),%xmm10 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,81,252,1,0 // movaps 0x1fc51(%rip),%xmm11 # 339d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,29,17,97,1,0 // movaps 0x16111(%rip),%xmm11 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -28547,7 +28547,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,93,250,1,0 // movaps 0x1fa5d(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,29,95,1,0 // movaps 0x15f1d(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -28599,13 +28599,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,37,250,1,0 // movaps 0x1fa25(%rip),%xmm8 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,40,5,229,94,1,0 // movaps 0x15ee5(%rip),%xmm8 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,41,250,1,0 // movaps 0x1fa29(%rip),%xmm10 # 339c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 68,15,40,21,233,94,1,0 // movaps 0x15ee9(%rip),%xmm10 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,39,250,1,0 // movaps 0x1fa27(%rip),%xmm12 # 339d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,37,231,94,1,0 // movaps 0x15ee7(%rip),%xmm12 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -28690,7 +28690,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,45,248,1,0 // movaps 0x1f82d(%rip),%xmm0 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,5,237,92,1,0 // movaps 0x15ced(%rip),%xmm0 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -28738,20 +28738,20 @@ _sk_srcover_rgba_8888_sse41:
.byte 15,133,219,0,0,0 // jne 1426b <_sk_srcover_rgba_8888_sse41+0xfb>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,63,248,1,0 // movdqa 0x1f83f(%rip),%xmm4 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,37,255,92,1,0 // movdqa 0x15cff(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,59,248,1,0 // pshufb 0x1f83b(%rip),%xmm5 # 339f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,56,0,45,251,92,1,0 // pshufb 0x15cfb(%rip),%xmm5 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,59,248,1,0 // pshufb 0x1f83b(%rip),%xmm6 # 33a00 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,56,0,53,251,92,1,0 // pshufb 0x15cfb(%rip),%xmm6 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,88,247,1,0 // movaps 0x1f758(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,24,92,1,0 // movaps 0x15c18(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,44,248,1,0 // movaps 0x1f82c(%rip),%xmm12 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,40,37,236,92,1,0 // movaps 0x15cec(%rip),%xmm12 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -28831,7 +28831,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,39,246,1,0 // movaps 0x1f627(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,231,90,1,0 // movaps 0x15ae7(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -28843,7 +28843,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,12,246,1,0 // minps 0x1f60c(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,93,29,204,90,1,0 // minps 0x15acc(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -28854,7 +28854,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,248,245,1,0 // minps 0x1f5f8(%rip),%xmm7 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,93,61,184,90,1,0 // minps 0x15ab8(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -28889,7 +28889,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,180,245,1,0 // movaps 0x1f5b4(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,116,90,1,0 // movaps 0x15a74(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -28951,7 +28951,7 @@ HIDDEN _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,62,245,1,0 // movaps 0x1f53e(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,254,89,1,0 // movaps 0x159fe(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -28965,20 +28965,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,9,246,1,0 // movaps 0x1f609(%rip),%xmm11 # 33a20 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,29,201,90,1,0 // movaps 0x15ac9(%rip),%xmm11 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,129,245,1,0 // movaps 0x1f581(%rip),%xmm12 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,40,37,65,90,1,0 // movaps 0x15a41(%rip),%xmm12 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,241,245,1,0 // movaps 0x1f5f1(%rip),%xmm13 # 33a30 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 68,15,40,45,177,90,1,0 // movaps 0x15ab1(%rip),%xmm13 # 29ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,241,245,1,0 // movaps 0x1f5f1(%rip),%xmm14 # 33a40 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,53,177,90,1,0 // movaps 0x15ab1(%rip),%xmm14 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,245,245,1,0 // movaps 0x1f5f5(%rip),%xmm15 # 33a50 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
+ .byte 68,15,40,61,181,90,1,0 // movaps 0x15ab5(%rip),%xmm15 # 29f10 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -29015,19 +29015,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,64,245,1,0 // movaps 0x1f540(%rip),%xmm11 # 33a20 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,29,0,90,1,0 // movaps 0x15a00(%rip),%xmm11 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,185,244,1,0 // movaps 0x1f4b9(%rip),%xmm12 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,40,37,121,89,1,0 // movaps 0x15979(%rip),%xmm12 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,45,245,1,0 // movaps 0x1f52d(%rip),%xmm13 # 33a30 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 68,15,40,45,237,89,1,0 // movaps 0x159ed(%rip),%xmm13 # 29ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,46,245,1,0 // movaps 0x1f52e(%rip),%xmm14 # 33a40 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,53,238,89,1,0 // movaps 0x159ee(%rip),%xmm14 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,50,245,1,0 // movaps 0x1f532(%rip),%xmm15 # 33a50 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
+ .byte 68,15,40,61,242,89,1,0 // movaps 0x159f2(%rip),%xmm15 # 29f10 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -29071,22 +29071,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,166,244,1,0 // movaps 0x1f4a6(%rip),%xmm11 # 33a60 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,29,102,89,1,0 // movaps 0x15966(%rip),%xmm11 # 29f20 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,166,244,1,0 // movaps 0x1f4a6(%rip),%xmm12 # 33a70 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,37,102,89,1,0 // movaps 0x15966(%rip),%xmm12 # 29f30 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,166,244,1,0 // movaps 0x1f4a6(%rip),%xmm10 # 33a80 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
+ .byte 68,15,40,21,102,89,1,0 // movaps 0x15966(%rip),%xmm10 # 29f40 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,166,244,1,0 // movaps 0x1f4a6(%rip),%xmm13 # 33a90 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
+ .byte 68,15,40,45,102,89,1,0 // movaps 0x15966(%rip),%xmm13 # 29f50 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,170,244,1,0 // movaps 0x1f4aa(%rip),%xmm14 # 33aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
+ .byte 68,15,40,53,106,89,1,0 // movaps 0x1596a(%rip),%xmm14 # 29f60 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,166,244,1,0 // movaps 0x1f4a6(%rip),%xmm15 # 33ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
+ .byte 68,15,40,61,102,89,1,0 // movaps 0x15966(%rip),%xmm15 # 29f70 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -29141,7 +29141,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,93,242,1,0 // movaps 0x1f25d(%rip),%xmm14 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,53,29,87,1,0 // movaps 0x1571d(%rip),%xmm14 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -29150,27 +29150,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,196,243,1,0 // andps 0x1f3c4(%rip),%xmm15 # 33ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
+ .byte 68,15,84,61,132,88,1,0 // andps 0x15884(%rip),%xmm15 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,183,243,1,0 // movaps 0x1f3b7(%rip),%xmm13 # 33ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 68,15,40,45,119,88,1,0 // movaps 0x15877(%rip),%xmm13 # 29f90 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,179,243,1,0 // addps 0x1f3b3(%rip),%xmm8 # 33ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 68,15,88,5,115,88,1,0 // addps 0x15873(%rip),%xmm8 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,171,243,1,0 // mulps 0x1f3ab(%rip),%xmm8 # 33af0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,89,5,107,88,1,0 // mulps 0x1586b(%rip),%xmm8 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,191,241,1,0 // movaps 0x1f1bf(%rip),%xmm0 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,40,5,127,86,1,0 // movaps 0x1567f(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -29192,7 +29192,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,117,241,1,0 // movaps 0x1f175(%rip),%xmm9 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,13,53,86,1,0 // movaps 0x15635(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -29205,19 +29205,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,32,243,1,0 // movaps 0x1f320(%rip),%xmm14 # 33b00 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
+ .byte 68,15,40,53,224,87,1,0 // movaps 0x157e0(%rip),%xmm14 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,25,243,1,0 // movaps 0x1f319(%rip),%xmm11 # 33b10 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,40,29,217,87,1,0 // movaps 0x157d9(%rip),%xmm11 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,178,242,1,0 // movaps 0x1f2b2(%rip),%xmm7 # 33ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
+ .byte 15,40,61,114,87,1,0 // movaps 0x15772(%rip),%xmm7 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,195,242,1,0 // movaps 0x1f2c3(%rip),%xmm3 # 33ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 15,40,29,131,87,1,0 // movaps 0x15783(%rip),%xmm3 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -29227,7 +29227,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,162,242,1,0 // movaps 0x1f2a2(%rip),%xmm12 # 33af0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,37,98,87,1,0 // movaps 0x15762(%rip),%xmm12 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -29261,7 +29261,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,58,242,1,0 // addps 0x1f23a(%rip),%xmm10 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,88,21,250,86,1,0 // addps 0x156fa(%rip),%xmm10 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -29318,9 +29318,9 @@ _sk_scale_u8_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,52 // jne 149cd <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,55,240,1,0 // pand 0x1f037(%rip),%xmm8 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,219,5,247,84,1,0 // pand 0x154f7(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,123,241,1,0 // mulps 0x1f17b(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,5,59,86,1,0 // mulps 0x1563b(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -29364,17 +29364,17 @@ _sk_scale_565_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,159,0,0,0 // jne 14ae7 <_sk_scale_565_sse41+0xc3>
.byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11
- .byte 102,15,111,5,233,240,1,0 // movdqa 0x1f0e9(%rip),%xmm0 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 102,15,111,5,169,85,1,0 // movdqa 0x155a9(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,232,240,1,0 // mulps 0x1f0e8(%rip),%xmm9 # 33b50 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 102,15,111,5,240,240,1,0 // movdqa 0x1f0f0(%rip),%xmm0 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 68,15,89,13,168,85,1,0 // mulps 0x155a8(%rip),%xmm9 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,5,176,85,1,0 // movdqa 0x155b0(%rip),%xmm0 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,239,240,1,0 // mulps 0x1f0ef(%rip),%xmm10 # 33b70 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 102,68,15,219,29,246,240,1,0 // pand 0x1f0f6(%rip),%xmm11 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,89,21,175,85,1,0 // mulps 0x155af(%rip),%xmm10 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 102,68,15,219,29,182,85,1,0 // pand 0x155b6(%rip),%xmm11 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,250,240,1,0 // mulps 0x1f0fa(%rip),%xmm11 # 33b90 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,89,29,186,85,1,0 // mulps 0x155ba(%rip),%xmm11 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -29451,9 +29451,9 @@ _sk_lerp_u8_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,72 // jne 14bd7 <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,65,238,1,0 // pand 0x1ee41(%rip),%xmm8 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,219,5,1,83,1,0 // pand 0x15301(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,133,239,1,0 // mulps 0x1ef85(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,5,69,84,1,0 // mulps 0x15445(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -29504,17 +29504,17 @@ _sk_lerp_565_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 15,133,165,0,0,0 // jne 14cfa <_sk_lerp_565_sse41+0xc9>
.byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10
- .byte 102,15,111,5,220,238,1,0 // movdqa 0x1eedc(%rip),%xmm0 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 102,15,111,5,156,83,1,0 // movdqa 0x1539c(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,219,238,1,0 // mulps 0x1eedb(%rip),%xmm9 # 33b50 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 102,15,111,5,227,238,1,0 // movdqa 0x1eee3(%rip),%xmm0 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 68,15,89,13,155,83,1,0 // mulps 0x1539b(%rip),%xmm9 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,5,163,83,1,0 // movdqa 0x153a3(%rip),%xmm0 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,226,238,1,0 // mulps 0x1eee2(%rip),%xmm11 # 33b70 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 102,68,15,219,21,233,238,1,0 // pand 0x1eee9(%rip),%xmm10 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,89,29,162,83,1,0 // mulps 0x153a2(%rip),%xmm11 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 102,68,15,219,21,169,83,1,0 // pand 0x153a9(%rip),%xmm10 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,237,238,1,0 // mulps 0x1eeed(%rip),%xmm10 # 33b90 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,89,21,173,83,1,0 // mulps 0x153ad(%rip),%xmm10 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -29570,7 +29570,7 @@ _sk_load_tables_sse41:
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,111,236,1,0 // movdqa 0x1ec6f(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,5,47,81,1,0 // movdqa 0x1512f(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -29585,7 +29585,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,42,236,1,0 // pshufb 0x1ec2a(%rip),%xmm1 # 339f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,56,0,13,234,80,1,0 // pshufb 0x150ea(%rip),%xmm1 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -29600,7 +29600,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,230,235,1,0 // pshufb 0x1ebe6(%rip),%xmm2 # 33a00 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,56,0,21,166,80,1,0 // pshufb 0x150a6(%rip),%xmm2 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -29615,7 +29615,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,195,236,1,0 // mulps 0x1ecc3(%rip),%xmm3 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,29,131,81,1,0 // mulps 0x15183(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -29656,7 +29656,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,149,236,1,0 // movdqa 0x1ec95(%rip),%xmm8 # 33ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 102,68,15,111,5,85,81,1,0 // movdqa 0x15155(%rip),%xmm8 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -29674,7 +29674,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,68,236,1,0 // pshufb 0x1ec44(%rip),%xmm1 # 33bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 102,15,56,0,13,4,81,1,0 // pshufb 0x15104(%rip),%xmm1 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29710,7 +29710,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,146,235,1,0 // mulps 0x1eb92(%rip),%xmm3 # 33bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 15,89,29,82,80,1,0 // mulps 0x15052(%rip),%xmm3 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -29750,7 +29750,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,219,234,1,0 // movdqa 0x1eadb(%rip),%xmm8 # 33ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 102,68,15,111,5,155,79,1,0 // movdqa 0x14f9b(%rip),%xmm8 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -29768,7 +29768,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,138,234,1,0 // pshufb 0x1ea8a(%rip),%xmm1 # 33bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 102,15,56,0,13,74,79,1,0 // pshufb 0x14f4a(%rip),%xmm1 # 2a070 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29799,7 +29799,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,101,231,1,0 // movaps 0x1e765(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,37,76,1,0 // movaps 0x14c25(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -29831,7 +29831,7 @@ _sk_byte_tables_sse41:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,210,231,1,0 // movaps 0x1e7d2(%rip),%xmm8 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,40,5,146,76,1,0 // movaps 0x14c92(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
@@ -29854,7 +29854,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,136,232,1,0 // movaps 0x1e888(%rip),%xmm9 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,13,72,77,1,0 // movaps 0x14d48(%rip),%xmm9 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -29956,7 +29956,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,228,230,1,0 // movaps 0x1e6e4(%rip),%xmm9 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,13,164,75,1,0 // movaps 0x14ba4(%rip),%xmm9 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -30138,31 +30138,31 @@ _sk_parametric_r_sse41:
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,191,228,1,0 // mulps 0x1e4bf(%rip),%xmm8 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 68,15,84,21,199,228,1,0 // andps 0x1e4c7(%rip),%xmm10 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
- .byte 68,15,86,21,255,225,1,0 // orps 0x1e1ff(%rip),%xmm10 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
- .byte 68,15,88,5,199,228,1,0 // addps 0x1e4c7(%rip),%xmm8 # 33bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
- .byte 68,15,40,37,207,228,1,0 // movaps 0x1e4cf(%rip),%xmm12 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 68,15,89,5,127,73,1,0 // mulps 0x1497f(%rip),%xmm8 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,84,21,135,73,1,0 // andps 0x14987(%rip),%xmm10 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,86,21,191,70,1,0 // orps 0x146bf(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,5,135,73,1,0 // addps 0x14987(%rip),%xmm8 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,40,37,143,73,1,0 // movaps 0x1498f(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,88,21,207,228,1,0 // addps 0x1e4cf(%rip),%xmm10 # 33c10 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
- .byte 68,15,40,37,215,228,1,0 // movaps 0x1e4d7(%rip),%xmm12 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 68,15,88,21,143,73,1,0 // addps 0x1498f(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,37,151,73,1,0 // movaps 0x14997(%rip),%xmm12 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,5,196,228,1,0 // addps 0x1e4c4(%rip),%xmm8 # 33c30 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
- .byte 68,15,40,21,204,228,1,0 // movaps 0x1e4cc(%rip),%xmm10 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 68,15,88,5,132,73,1,0 // addps 0x14984(%rip),%xmm8 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,21,140,73,1,0 // movaps 0x1498c(%rip),%xmm10 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 68,15,40,21,204,228,1,0 // movaps 0x1e4cc(%rip),%xmm10 # 33c50 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,21,140,73,1,0 // movaps 0x1498c(%rip),%xmm10 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,40,29,208,228,1,0 // movaps 0x1e4d0(%rip),%xmm11 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 68,15,40,29,144,73,1,0 // movaps 0x14990(%rip),%xmm11 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 69,15,94,218 // divps %xmm10,%xmm11
.byte 69,15,88,216 // addps %xmm8,%xmm11
- .byte 68,15,89,29,208,228,1,0 // mulps 0x1e4d0(%rip),%xmm11 # 33c70 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 68,15,89,29,144,73,1,0 // mulps 0x14990(%rip),%xmm11 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10
.byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
@@ -30170,7 +30170,7 @@ _sk_parametric_r_sse41:
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,103,225,1,0 // minps 0x1e167(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,93,5,39,70,1,0 // minps 0x14627(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30200,31 +30200,31 @@ _sk_parametric_g_sse41:
.byte 68,15,88,217 // addps %xmm1,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,152,227,1,0 // mulps 0x1e398(%rip),%xmm12 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 68,15,84,29,160,227,1,0 // andps 0x1e3a0(%rip),%xmm11 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
- .byte 68,15,86,29,216,224,1,0 // orps 0x1e0d8(%rip),%xmm11 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
- .byte 68,15,88,37,160,227,1,0 // addps 0x1e3a0(%rip),%xmm12 # 33bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
- .byte 15,40,13,169,227,1,0 // movaps 0x1e3a9(%rip),%xmm1 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 68,15,89,37,88,72,1,0 // mulps 0x14858(%rip),%xmm12 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,84,29,96,72,1,0 // andps 0x14860(%rip),%xmm11 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,86,29,152,69,1,0 // orps 0x14598(%rip),%xmm11 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,37,96,72,1,0 // addps 0x14860(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,40,13,105,72,1,0 // movaps 0x14869(%rip),%xmm1 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,88,29,169,227,1,0 // addps 0x1e3a9(%rip),%xmm11 # 33c10 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
- .byte 15,40,13,178,227,1,0 // movaps 0x1e3b2(%rip),%xmm1 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 68,15,88,29,105,72,1,0 // addps 0x14869(%rip),%xmm11 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 15,40,13,114,72,1,0 // movaps 0x14872(%rip),%xmm1 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 65,15,94,203 // divps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,159,227,1,0 // addps 0x1e39f(%rip),%xmm12 # 33c30 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
- .byte 15,40,13,168,227,1,0 // movaps 0x1e3a8(%rip),%xmm1 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 68,15,88,37,95,72,1,0 // addps 0x1485f(%rip),%xmm12 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,40,13,104,72,1,0 // movaps 0x14868(%rip),%xmm1 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,21,168,227,1,0 // movaps 0x1e3a8(%rip),%xmm10 # 33c50 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,21,104,72,1,0 // movaps 0x14868(%rip),%xmm10 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,13,173,227,1,0 // movaps 0x1e3ad(%rip),%xmm1 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 15,40,13,109,72,1,0 // movaps 0x1486d(%rip),%xmm1 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,94,202 // divps %xmm10,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,13,174,227,1,0 // mulps 0x1e3ae(%rip),%xmm1 # 33c70 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 15,89,13,110,72,1,0 // mulps 0x1486e(%rip),%xmm1 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10
.byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
@@ -30232,7 +30232,7 @@ _sk_parametric_g_sse41:
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,93,13,73,224,1,0 // minps 0x1e049(%rip),%xmm1 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,93,13,9,69,1,0 // minps 0x14509(%rip),%xmm1 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30262,31 +30262,31 @@ _sk_parametric_b_sse41:
.byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,122,226,1,0 // mulps 0x1e27a(%rip),%xmm12 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 68,15,84,29,130,226,1,0 // andps 0x1e282(%rip),%xmm11 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
- .byte 68,15,86,29,186,223,1,0 // orps 0x1dfba(%rip),%xmm11 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
- .byte 68,15,88,37,130,226,1,0 // addps 0x1e282(%rip),%xmm12 # 33bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
- .byte 15,40,21,139,226,1,0 // movaps 0x1e28b(%rip),%xmm2 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 68,15,89,37,58,71,1,0 // mulps 0x1473a(%rip),%xmm12 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,84,29,66,71,1,0 // andps 0x14742(%rip),%xmm11 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,86,29,122,68,1,0 // orps 0x1447a(%rip),%xmm11 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,37,66,71,1,0 // addps 0x14742(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,40,21,75,71,1,0 // movaps 0x1474b(%rip),%xmm2 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,88,29,139,226,1,0 // addps 0x1e28b(%rip),%xmm11 # 33c10 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
- .byte 15,40,21,148,226,1,0 // movaps 0x1e294(%rip),%xmm2 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 68,15,88,29,75,71,1,0 // addps 0x1474b(%rip),%xmm11 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 15,40,21,84,71,1,0 // movaps 0x14754(%rip),%xmm2 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 65,15,94,211 // divps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,129,226,1,0 // addps 0x1e281(%rip),%xmm12 # 33c30 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
- .byte 15,40,21,138,226,1,0 // movaps 0x1e28a(%rip),%xmm2 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 68,15,88,37,65,71,1,0 // addps 0x14741(%rip),%xmm12 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,40,21,74,71,1,0 // movaps 0x1474a(%rip),%xmm2 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,40,21,138,226,1,0 // movaps 0x1e28a(%rip),%xmm10 # 33c50 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,21,74,71,1,0 // movaps 0x1474a(%rip),%xmm10 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,21,143,226,1,0 // movaps 0x1e28f(%rip),%xmm2 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 15,40,21,79,71,1,0 // movaps 0x1474f(%rip),%xmm2 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,94,210 // divps %xmm10,%xmm2
.byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,89,21,144,226,1,0 // mulps 0x1e290(%rip),%xmm2 # 33c70 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 15,89,21,80,71,1,0 // mulps 0x14750(%rip),%xmm2 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10
.byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
@@ -30294,7 +30294,7 @@ _sk_parametric_b_sse41:
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,21,43,223,1,0 // minps 0x1df2b(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,93,21,235,67,1,0 // minps 0x143eb(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30324,31 +30324,31 @@ _sk_parametric_a_sse41:
.byte 68,15,88,219 // addps %xmm3,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,92,225,1,0 // mulps 0x1e15c(%rip),%xmm12 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 68,15,84,29,100,225,1,0 // andps 0x1e164(%rip),%xmm11 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
- .byte 68,15,86,29,156,222,1,0 // orps 0x1de9c(%rip),%xmm11 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
- .byte 68,15,88,37,100,225,1,0 // addps 0x1e164(%rip),%xmm12 # 33bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
- .byte 15,40,29,109,225,1,0 // movaps 0x1e16d(%rip),%xmm3 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 68,15,89,37,28,70,1,0 // mulps 0x1461c(%rip),%xmm12 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,84,29,36,70,1,0 // andps 0x14624(%rip),%xmm11 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,86,29,92,67,1,0 // orps 0x1435c(%rip),%xmm11 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,37,36,70,1,0 // addps 0x14624(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,40,29,45,70,1,0 // movaps 0x1462d(%rip),%xmm3 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,88,29,109,225,1,0 // addps 0x1e16d(%rip),%xmm11 # 33c10 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
- .byte 15,40,29,118,225,1,0 // movaps 0x1e176(%rip),%xmm3 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 68,15,88,29,45,70,1,0 // addps 0x1462d(%rip),%xmm11 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 15,40,29,54,70,1,0 // movaps 0x14636(%rip),%xmm3 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 65,15,94,219 // divps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,99,225,1,0 // addps 0x1e163(%rip),%xmm12 # 33c30 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
- .byte 15,40,29,108,225,1,0 // movaps 0x1e16c(%rip),%xmm3 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 68,15,88,37,35,70,1,0 // addps 0x14623(%rip),%xmm12 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,40,29,44,70,1,0 // movaps 0x1462c(%rip),%xmm3 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,40,21,108,225,1,0 // movaps 0x1e16c(%rip),%xmm10 # 33c50 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,21,44,70,1,0 // movaps 0x1462c(%rip),%xmm10 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,29,113,225,1,0 // movaps 0x1e171(%rip),%xmm3 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 15,40,29,49,70,1,0 // movaps 0x14631(%rip),%xmm3 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,94,218 // divps %xmm10,%xmm3
.byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,89,29,114,225,1,0 // mulps 0x1e172(%rip),%xmm3 # 33c70 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 15,89,29,50,70,1,0 // mulps 0x14632(%rip),%xmm3 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10
.byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -30356,7 +30356,7 @@ _sk_parametric_a_sse41:
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,93,29,13,222,1,0 // minps 0x1de0d(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,93,29,205,66,1,0 // minps 0x142cd(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30373,20 +30373,20 @@ _sk_gamma_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,124,224,1,0 // mulps 0x1e07c(%rip),%xmm0 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 68,15,40,53,132,224,1,0 // movaps 0x1e084(%rip),%xmm14 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 15,89,5,60,69,1,0 // mulps 0x1453c(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,40,53,68,69,1,0 // movaps 0x14544(%rip),%xmm14 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,37,184,221,1,0 // movaps 0x1ddb8(%rip),%xmm12 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,37,120,66,1,0 // movaps 0x14278(%rip),%xmm12 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 65,15,86,212 // orps %xmm12,%xmm2
- .byte 68,15,40,21,124,224,1,0 // movaps 0x1e07c(%rip),%xmm10 # 33bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
+ .byte 68,15,40,21,60,69,1,0 // movaps 0x1453c(%rip),%xmm10 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,29,128,224,1,0 // movaps 0x1e080(%rip),%xmm11 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 68,15,40,29,64,69,1,0 // movaps 0x14540(%rip),%xmm11 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,13,126,224,1,0 // movaps 0x1e07e(%rip),%xmm9 # 33c10 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 68,15,40,13,62,69,1,0 // movaps 0x1453e(%rip),%xmm9 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 68,15,40,45,130,224,1,0 // movaps 0x1e082(%rip),%xmm13 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 68,15,40,45,66,69,1,0 // movaps 0x14542(%rip),%xmm13 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -30397,21 +30397,21 @@ _sk_gamma_sse41:
.byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,101,224,1,0 // movaps 0x1e065(%rip),%xmm6 # 33c30 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 15,40,53,37,69,1,0 // movaps 0x14525(%rip),%xmm6 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,123,224,1,0 // movaps 0x1e07b(%rip),%xmm7 # 33c50 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 15,40,61,59,69,1,0 // movaps 0x1453b(%rip),%xmm7 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,91,224,1,0 // movaps 0x1e05b(%rip),%xmm4 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 15,40,37,27,69,1,0 // movaps 0x1451b(%rip),%xmm4 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,109,224,1,0 // movaps 0x1e06d(%rip),%xmm15 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 68,15,40,61,45,69,1,0 // movaps 0x1452d(%rip),%xmm15 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,201,223,1,0 // mulps 0x1dfc9(%rip),%xmm0 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 15,89,5,137,68,1,0 // mulps 0x14489(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
.byte 65,15,84,206 // andps %xmm14,%xmm1
.byte 65,15,86,204 // orps %xmm12,%xmm1
.byte 65,15,88,194 // addps %xmm10,%xmm0
@@ -30437,8 +30437,8 @@ _sk_gamma_sse41:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,106,223,1,0 // mulps 0x1df6a(%rip),%xmm0 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 15,84,29,115,223,1,0 // andps 0x1df73(%rip),%xmm3 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 15,89,5,42,68,1,0 // mulps 0x1442a(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,84,29,51,68,1,0 // andps 0x14433(%rip),%xmm3 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 65,15,86,220 // orps %xmm12,%xmm3
.byte 65,15,88,194 // addps %xmm10,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
@@ -30456,7 +30456,7 @@ _sk_gamma_sse41:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,187,223,1,0 // movaps 0x1dfbb(%rip),%xmm0 # 33c70 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 15,40,5,123,68,1,0 // movaps 0x1447b(%rip),%xmm0 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -30476,29 +30476,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,139,223,1,0 // mulps 0x1df8b(%rip),%xmm8 # 33c80 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
- .byte 68,15,40,13,19,221,1,0 // movaps 0x1dd13(%rip),%xmm9 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,89,5,75,68,1,0 // mulps 0x1444b(%rip),%xmm8 # 2a140 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,40,13,211,65,1,0 // movaps 0x141d3(%rip),%xmm9 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,136,223,1,0 // movaps 0x1df88(%rip),%xmm0 # 33c90 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
+ .byte 15,40,5,72,68,1,0 // movaps 0x14448(%rip),%xmm0 # 2a150 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,134,223,1,0 // addps 0x1df86(%rip),%xmm8 # 33ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
- .byte 68,15,89,5,142,223,1,0 // mulps 0x1df8e(%rip),%xmm8 # 33cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
- .byte 15,89,13,151,223,1,0 // mulps 0x1df97(%rip),%xmm1 # 33cc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
+ .byte 68,15,88,5,70,68,1,0 // addps 0x14446(%rip),%xmm8 # 2a160 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 68,15,89,5,78,68,1,0 // mulps 0x1444e(%rip),%xmm8 # 2a170 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 15,89,13,87,68,1,0 // mulps 0x14457(%rip),%xmm1 # 2a180 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,156,223,1,0 // mulps 0x1df9c(%rip),%xmm2 # 33cd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1254>
+ .byte 15,89,21,92,68,1,0 // mulps 0x1445c(%rip),%xmm2 # 2a190 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,144,223,1,0 // movaps 0x1df90(%rip),%xmm9 # 33ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x1264>
+ .byte 68,15,40,13,80,68,1,0 // movaps 0x14450(%rip),%xmm9 # 2a1a0 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,144,223,1,0 // movaps 0x1df90(%rip),%xmm2 # 33cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1274>
+ .byte 15,40,21,80,68,1,0 // movaps 0x14450(%rip),%xmm2 # 2a1b0 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,149,223,1,0 // movaps 0x1df95(%rip),%xmm12 # 33d00 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
+ .byte 68,15,40,37,85,68,1,0 // movaps 0x14455(%rip),%xmm12 # 2a1c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -30517,8 +30517,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,78,223,1,0 // mulps 0x1df4e(%rip),%xmm1 # 33d10 <_sk_srcover_rgba_8888_sse2_lowp+0x1294>
- .byte 15,89,21,87,223,1,0 // mulps 0x1df57(%rip),%xmm2 # 33d20 <_sk_srcover_rgba_8888_sse2_lowp+0x12a4>
+ .byte 15,89,13,14,68,1,0 // mulps 0x1440e(%rip),%xmm1 # 2a1d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
+ .byte 15,89,21,23,68,1,0 // mulps 0x14417(%rip),%xmm2 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -30537,9 +30537,9 @@ _sk_load_a8_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,39 // jne 15e13 <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,229,219,1,0 // pand 0x1dbe5(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,219,5,165,64,1,0 // pand 0x140a5(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,43,221,1,0 // mulps 0x1dd2b(%rip),%xmm3 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,29,235,65,1,0 // mulps 0x141eb(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30579,9 +30579,9 @@ _sk_load_a8_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,39 // jne 15e9f <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,89,219,1,0 // pand 0x1db59(%rip),%xmm4 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,219,37,25,64,1,0 // pand 0x14019(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,159,220,1,0 // mulps 0x1dc9f(%rip),%xmm7 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,61,95,65,1,0 // mulps 0x1415f(%rip),%xmm7 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -30636,7 +30636,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,206,219,1,0 // mulps 0x1dbce(%rip),%xmm3 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,29,142,64,1,0 // mulps 0x1408e(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30653,7 +30653,7 @@ _sk_store_a8_sse41:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,132,218,1,0 // movaps 0x1da84(%rip),%xmm8 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,40,5,68,63,1,0 // movaps 0x13f44(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -30674,7 +30674,7 @@ _sk_store_a8_sse41:
.byte 65,128,249,3 // cmp $0x3,%r9b
.byte 117,221 // jne 15fae <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- .byte 102,68,15,56,0,5,76,221,1,0 // pshufb 0x1dd4c(%rip),%xmm8 # 33d30 <_sk_srcover_rgba_8888_sse2_lowp+0x12b4>
+ .byte 102,68,15,56,0,5,12,66,1,0 // pshufb 0x1420c(%rip),%xmm8 # 2a1f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
.byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1)
.byte 235,192 // jmp 15fae <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1)
@@ -30693,11 +30693,11 @@ _sk_load_g8_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,42 // jne 1603a <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,193,217,1,0 // pand 0x1d9c1(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,219,5,129,62,1,0 // pand 0x13e81(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,7,219,1,0 // mulps 0x1db07(%rip),%xmm0 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,5,199,63,1,0 // mulps 0x13fc7(%rip),%xmm0 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,254,216,1,0 // movaps 0x1d8fe(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,190,61,1,0 // movaps 0x13dbe(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -30735,11 +30735,11 @@ _sk_load_g8_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,42 // jne 160c9 <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,50,217,1,0 // pand 0x1d932(%rip),%xmm4 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,219,37,242,61,1,0 // pand 0x13df2(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,120,218,1,0 // mulps 0x1da78(%rip),%xmm4 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,37,56,63,1,0 // mulps 0x13f38(%rip),%xmm4 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,111,216,1,0 // movaps 0x1d86f(%rip),%xmm7 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,61,47,61,1,0 // movaps 0x13d2f(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
@@ -30792,9 +30792,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,164,217,1,0 // mulps 0x1d9a4(%rip),%xmm0 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,5,100,62,1,0 // mulps 0x13e64(%rip),%xmm0 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,155,215,1,0 // movaps 0x1d79b(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,91,60,1,0 // movaps 0x13c5b(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -30813,19 +30813,19 @@ _sk_load_565_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,80 // jne 16208 <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2
- .byte 102,15,111,5,121,217,1,0 // movdqa 0x1d979(%rip),%xmm0 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 102,15,111,5,57,62,1,0 // movdqa 0x13e39(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,123,217,1,0 // mulps 0x1d97b(%rip),%xmm0 # 33b50 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 102,15,111,13,131,217,1,0 // movdqa 0x1d983(%rip),%xmm1 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 15,89,5,59,62,1,0 // mulps 0x13e3b(%rip),%xmm0 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,13,67,62,1,0 // movdqa 0x13e43(%rip),%xmm1 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,133,217,1,0 // mulps 0x1d985(%rip),%xmm1 # 33b70 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 102,15,219,21,141,217,1,0 // pand 0x1d98d(%rip),%xmm2 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 15,89,13,69,62,1,0 // mulps 0x13e45(%rip),%xmm1 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 102,15,219,21,77,62,1,0 // pand 0x13e4d(%rip),%xmm2 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,147,217,1,0 // mulps 0x1d993(%rip),%xmm2 # 33b90 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 15,89,21,83,62,1,0 // mulps 0x13e53(%rip),%xmm2 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,42,215,1,0 // movaps 0x1d72a(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,234,59,1,0 // movaps 0x13bea(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
@@ -30861,19 +30861,19 @@ _sk_load_565_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,80 // jne 162c3 <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6
- .byte 102,15,111,37,190,216,1,0 // movdqa 0x1d8be(%rip),%xmm4 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 102,15,111,37,126,61,1,0 // movdqa 0x13d7e(%rip),%xmm4 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,192,216,1,0 // mulps 0x1d8c0(%rip),%xmm4 # 33b50 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 102,15,111,45,200,216,1,0 // movdqa 0x1d8c8(%rip),%xmm5 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 15,89,37,128,61,1,0 // mulps 0x13d80(%rip),%xmm4 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,45,136,61,1,0 // movdqa 0x13d88(%rip),%xmm5 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,202,216,1,0 // mulps 0x1d8ca(%rip),%xmm5 # 33b70 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 102,15,219,53,210,216,1,0 // pand 0x1d8d2(%rip),%xmm6 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 15,89,45,138,61,1,0 // mulps 0x13d8a(%rip),%xmm5 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 102,15,219,53,146,61,1,0 // pand 0x13d92(%rip),%xmm6 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,216,216,1,0 // mulps 0x1d8d8(%rip),%xmm6 # 33b90 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 15,89,53,152,61,1,0 // mulps 0x13d98(%rip),%xmm6 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,111,214,1,0 // movaps 0x1d66f(%rip),%xmm7 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,61,47,59,1,0 // movaps 0x13b2f(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
@@ -30922,19 +30922,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,188,215,1,0 // movdqa 0x1d7bc(%rip),%xmm0 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 102,15,111,5,124,60,1,0 // movdqa 0x13c7c(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,190,215,1,0 // mulps 0x1d7be(%rip),%xmm0 # 33b50 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 102,15,111,13,198,215,1,0 // movdqa 0x1d7c6(%rip),%xmm1 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 15,89,5,126,60,1,0 // mulps 0x13c7e(%rip),%xmm0 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,13,134,60,1,0 // movdqa 0x13c86(%rip),%xmm1 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,200,215,1,0 // mulps 0x1d7c8(%rip),%xmm1 # 33b70 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 102,15,219,21,208,215,1,0 // pand 0x1d7d0(%rip),%xmm2 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 15,89,13,136,60,1,0 // mulps 0x13c88(%rip),%xmm1 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 102,15,219,21,144,60,1,0 // pand 0x13c90(%rip),%xmm2 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,214,215,1,0 // mulps 0x1d7d6(%rip),%xmm2 # 33b90 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 15,89,21,150,60,1,0 // mulps 0x13c96(%rip),%xmm2 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,109,213,1,0 // movaps 0x1d56d(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,45,58,1,0 // movaps 0x13a2d(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -30948,12 +30948,12 @@ _sk_store_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,93,217,1,0 // movaps 0x1d95d(%rip),%xmm8 # 33d40 <_sk_srcover_rgba_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,5,29,62,1,0 // movaps 0x13e1d(%rip),%xmm8 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,82,217,1,0 // movaps 0x1d952(%rip),%xmm10 # 33d50 <_sk_srcover_rgba_8888_sse2_lowp+0x12d4>
+ .byte 68,15,40,21,18,62,1,0 // movaps 0x13e12(%rip),%xmm10 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -30997,21 +30997,21 @@ _sk_load_4444_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,95 // jne 164ef <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3
- .byte 102,15,111,5,193,216,1,0 // movdqa 0x1d8c1(%rip),%xmm0 # 33d60 <_sk_srcover_rgba_8888_sse2_lowp+0x12e4>
+ .byte 102,15,111,5,129,61,1,0 // movdqa 0x13d81(%rip),%xmm0 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,195,216,1,0 // mulps 0x1d8c3(%rip),%xmm0 # 33d70 <_sk_srcover_rgba_8888_sse2_lowp+0x12f4>
- .byte 102,15,111,13,203,216,1,0 // movdqa 0x1d8cb(%rip),%xmm1 # 33d80 <_sk_srcover_rgba_8888_sse2_lowp+0x1304>
+ .byte 15,89,5,131,61,1,0 // mulps 0x13d83(%rip),%xmm0 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 102,15,111,13,139,61,1,0 // movdqa 0x13d8b(%rip),%xmm1 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,205,216,1,0 // mulps 0x1d8cd(%rip),%xmm1 # 33d90 <_sk_srcover_rgba_8888_sse2_lowp+0x1314>
- .byte 102,15,111,21,213,216,1,0 // movdqa 0x1d8d5(%rip),%xmm2 # 33da0 <_sk_srcover_rgba_8888_sse2_lowp+0x1324>
+ .byte 15,89,13,141,61,1,0 // mulps 0x13d8d(%rip),%xmm1 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 102,15,111,21,149,61,1,0 // movdqa 0x13d95(%rip),%xmm2 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,215,216,1,0 // mulps 0x1d8d7(%rip),%xmm2 # 33db0 <_sk_srcover_rgba_8888_sse2_lowp+0x1334>
- .byte 102,15,219,29,223,216,1,0 // pand 0x1d8df(%rip),%xmm3 # 33dc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1344>
+ .byte 15,89,21,151,61,1,0 // mulps 0x13d97(%rip),%xmm2 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 102,15,219,29,159,61,1,0 // pand 0x13d9f(%rip),%xmm3 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,229,216,1,0 // mulps 0x1d8e5(%rip),%xmm3 # 33dd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1354>
+ .byte 15,89,29,165,61,1,0 // mulps 0x13da5(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -31048,21 +31048,21 @@ _sk_load_4444_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,95 // jne 165b9 <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7
- .byte 102,15,111,37,247,215,1,0 // movdqa 0x1d7f7(%rip),%xmm4 # 33d60 <_sk_srcover_rgba_8888_sse2_lowp+0x12e4>
+ .byte 102,15,111,37,183,60,1,0 // movdqa 0x13cb7(%rip),%xmm4 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,249,215,1,0 // mulps 0x1d7f9(%rip),%xmm4 # 33d70 <_sk_srcover_rgba_8888_sse2_lowp+0x12f4>
- .byte 102,15,111,45,1,216,1,0 // movdqa 0x1d801(%rip),%xmm5 # 33d80 <_sk_srcover_rgba_8888_sse2_lowp+0x1304>
+ .byte 15,89,37,185,60,1,0 // mulps 0x13cb9(%rip),%xmm4 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 102,15,111,45,193,60,1,0 // movdqa 0x13cc1(%rip),%xmm5 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,3,216,1,0 // mulps 0x1d803(%rip),%xmm5 # 33d90 <_sk_srcover_rgba_8888_sse2_lowp+0x1314>
- .byte 102,15,111,53,11,216,1,0 // movdqa 0x1d80b(%rip),%xmm6 # 33da0 <_sk_srcover_rgba_8888_sse2_lowp+0x1324>
+ .byte 15,89,45,195,60,1,0 // mulps 0x13cc3(%rip),%xmm5 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 102,15,111,53,203,60,1,0 // movdqa 0x13ccb(%rip),%xmm6 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,13,216,1,0 // mulps 0x1d80d(%rip),%xmm6 # 33db0 <_sk_srcover_rgba_8888_sse2_lowp+0x1334>
- .byte 102,15,219,61,21,216,1,0 // pand 0x1d815(%rip),%xmm7 # 33dc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1344>
+ .byte 15,89,53,205,60,1,0 // mulps 0x13ccd(%rip),%xmm6 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 102,15,219,61,213,60,1,0 // pand 0x13cd5(%rip),%xmm7 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,27,216,1,0 // mulps 0x1d81b(%rip),%xmm7 # 33dd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1354>
+ .byte 15,89,61,219,60,1,0 // mulps 0x13cdb(%rip),%xmm7 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -31112,21 +31112,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,230,214,1,0 // movdqa 0x1d6e6(%rip),%xmm0 # 33d60 <_sk_srcover_rgba_8888_sse2_lowp+0x12e4>
+ .byte 102,15,111,5,166,59,1,0 // movdqa 0x13ba6(%rip),%xmm0 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,232,214,1,0 // mulps 0x1d6e8(%rip),%xmm0 # 33d70 <_sk_srcover_rgba_8888_sse2_lowp+0x12f4>
- .byte 102,15,111,13,240,214,1,0 // movdqa 0x1d6f0(%rip),%xmm1 # 33d80 <_sk_srcover_rgba_8888_sse2_lowp+0x1304>
+ .byte 15,89,5,168,59,1,0 // mulps 0x13ba8(%rip),%xmm0 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 102,15,111,13,176,59,1,0 // movdqa 0x13bb0(%rip),%xmm1 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,242,214,1,0 // mulps 0x1d6f2(%rip),%xmm1 # 33d90 <_sk_srcover_rgba_8888_sse2_lowp+0x1314>
- .byte 102,15,111,21,250,214,1,0 // movdqa 0x1d6fa(%rip),%xmm2 # 33da0 <_sk_srcover_rgba_8888_sse2_lowp+0x1324>
+ .byte 15,89,13,178,59,1,0 // mulps 0x13bb2(%rip),%xmm1 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 102,15,111,21,186,59,1,0 // movdqa 0x13bba(%rip),%xmm2 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,252,214,1,0 // mulps 0x1d6fc(%rip),%xmm2 # 33db0 <_sk_srcover_rgba_8888_sse2_lowp+0x1334>
- .byte 102,15,219,29,4,215,1,0 // pand 0x1d704(%rip),%xmm3 # 33dc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1344>
+ .byte 15,89,21,188,59,1,0 // mulps 0x13bbc(%rip),%xmm2 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 102,15,219,29,196,59,1,0 // pand 0x13bc4(%rip),%xmm3 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,10,215,1,0 // mulps 0x1d70a(%rip),%xmm3 # 33dd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1354>
+ .byte 15,89,29,202,59,1,0 // mulps 0x13bca(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31141,7 +31141,7 @@ _sk_store_4444_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,248,214,1,0 // movaps 0x1d6f8(%rip),%xmm8 # 33de0 <_sk_srcover_rgba_8888_sse2_lowp+0x1364>
+ .byte 68,15,40,5,184,59,1,0 // movaps 0x13bb8(%rip),%xmm8 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -31195,17 +31195,17 @@ _sk_load_8888_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,89 // jne 16803 <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,40,210,1,0 // movdqa 0x1d228(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,5,232,54,1,0 // movdqa 0x136e8(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,105,211,1,0 // movaps 0x1d369(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,41,56,1,0 // movaps 0x13829(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,24,210,1,0 // pshufb 0x1d218(%rip),%xmm1 # 339f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,56,0,13,216,54,1,0 // pshufb 0x136d8(%rip),%xmm1 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,20,210,1,0 // pshufb 0x1d214(%rip),%xmm2 # 33a00 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,56,0,21,212,54,1,0 // pshufb 0x136d4(%rip),%xmm2 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31244,17 +31244,17 @@ _sk_load_8888_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,89 // jne 168bd <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,110,209,1,0 // movdqa 0x1d16e(%rip),%xmm4 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,37,46,54,1,0 // movdqa 0x1362e(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,175,210,1,0 // movaps 0x1d2af(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,111,55,1,0 // movaps 0x1376f(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,94,209,1,0 // pshufb 0x1d15e(%rip),%xmm5 # 339f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,56,0,45,30,54,1,0 // pshufb 0x1361e(%rip),%xmm5 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,90,209,1,0 // pshufb 0x1d15a(%rip),%xmm6 # 33a00 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,56,0,53,26,54,1,0 // pshufb 0x1361a(%rip),%xmm6 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -31301,17 +31301,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,126,208,1,0 // movdqa 0x1d07e(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,5,62,53,1,0 // movdqa 0x1353e(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,191,209,1,0 // movaps 0x1d1bf(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,127,54,1,0 // movaps 0x1367f(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,110,208,1,0 // pshufb 0x1d06e(%rip),%xmm1 # 339f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,56,0,13,46,53,1,0 // pshufb 0x1352e(%rip),%xmm1 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,106,208,1,0 // pshufb 0x1d06a(%rip),%xmm2 # 33a00 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,56,0,21,42,53,1,0 // pshufb 0x1352a(%rip),%xmm2 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31331,7 +31331,7 @@ _sk_store_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,68,208,1,0 // movaps 0x1d044(%rip),%xmm8 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,40,5,4,53,1,0 // movaps 0x13504(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -31382,17 +31382,17 @@ _sk_load_bgra_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,89 // jne 16ad3 <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,88,207,1,0 // movdqa 0x1cf58(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,5,24,52,1,0 // movdqa 0x13418(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,153,208,1,0 // movaps 0x1d099(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,89,53,1,0 // movaps 0x13559(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,72,207,1,0 // pshufb 0x1cf48(%rip),%xmm0 # 339f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,56,0,5,8,52,1,0 // pshufb 0x13408(%rip),%xmm0 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,68,207,1,0 // pshufb 0x1cf44(%rip),%xmm0 # 33a00 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,56,0,5,4,52,1,0 // pshufb 0x13404(%rip),%xmm0 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31431,17 +31431,17 @@ _sk_load_bgra_dst_sse41:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,89 // jne 16b8d <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,158,206,1,0 // movdqa 0x1ce9e(%rip),%xmm4 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,37,94,51,1,0 // movdqa 0x1335e(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,223,207,1,0 // movaps 0x1cfdf(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,159,52,1,0 // movaps 0x1349f(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,142,206,1,0 // pshufb 0x1ce8e(%rip),%xmm4 # 339f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,56,0,37,78,51,1,0 // pshufb 0x1334e(%rip),%xmm4 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,138,206,1,0 // pshufb 0x1ce8a(%rip),%xmm4 # 33a00 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,56,0,37,74,51,1,0 // pshufb 0x1334a(%rip),%xmm4 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -31488,17 +31488,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,174,205,1,0 // movdqa 0x1cdae(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,5,110,50,1,0 // movdqa 0x1326e(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,239,206,1,0 // movaps 0x1ceef(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,175,51,1,0 // movaps 0x133af(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,158,205,1,0 // pshufb 0x1cd9e(%rip),%xmm0 # 339f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,56,0,5,94,50,1,0 // pshufb 0x1325e(%rip),%xmm0 # 29eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,154,205,1,0 // pshufb 0x1cd9a(%rip),%xmm0 # 33a00 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,56,0,5,90,50,1,0 // pshufb 0x1325a(%rip),%xmm0 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31518,7 +31518,7 @@ _sk_store_bgra_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,116,205,1,0 // movaps 0x1cd74(%rip),%xmm8 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,40,5,52,50,1,0 // movaps 0x13234(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -31577,19 +31577,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,105,208,1,0 // movdqa 0x1d069(%rip),%xmm8 # 33df0 <_sk_srcover_rgba_8888_sse2_lowp+0x1374>
+ .byte 102,68,15,111,5,41,53,1,0 // movdqa 0x13529(%rip),%xmm8 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,103,208,1,0 // movdqa 0x1d067(%rip),%xmm10 # 33e00 <_sk_srcover_rgba_8888_sse2_lowp+0x1384>
+ .byte 102,68,15,111,21,39,53,1,0 // movdqa 0x13527(%rip),%xmm10 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,106,208,1,0 // movdqa 0x1d06a(%rip),%xmm3 # 33e10 <_sk_srcover_rgba_8888_sse2_lowp+0x1394>
+ .byte 102,15,111,29,42,53,1,0 // movdqa 0x1352a(%rip),%xmm3 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,86,208,1,0 // movdqa 0x1d056(%rip),%xmm11 # 33e20 <_sk_srcover_rgba_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,29,22,53,1,0 // movdqa 0x13516(%rip),%xmm11 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31665,19 +31665,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,203,206,1,0 // movdqa 0x1cecb(%rip),%xmm8 # 33df0 <_sk_srcover_rgba_8888_sse2_lowp+0x1374>
+ .byte 102,68,15,111,5,139,51,1,0 // movdqa 0x1338b(%rip),%xmm8 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,201,206,1,0 // movdqa 0x1cec9(%rip),%xmm10 # 33e00 <_sk_srcover_rgba_8888_sse2_lowp+0x1384>
+ .byte 102,68,15,111,21,137,51,1,0 // movdqa 0x13389(%rip),%xmm10 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,204,206,1,0 // movdqa 0x1cecc(%rip),%xmm7 # 33e10 <_sk_srcover_rgba_8888_sse2_lowp+0x1394>
+ .byte 102,15,111,61,140,51,1,0 // movdqa 0x1338c(%rip),%xmm7 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,184,206,1,0 // movdqa 0x1ceb8(%rip),%xmm11 # 33e20 <_sk_srcover_rgba_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,29,120,51,1,0 // movdqa 0x13378(%rip),%xmm11 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -31762,19 +31762,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,0,205,1,0 // movdqa 0x1cd00(%rip),%xmm8 # 33df0 <_sk_srcover_rgba_8888_sse2_lowp+0x1374>
+ .byte 102,68,15,111,5,192,49,1,0 // movdqa 0x131c0(%rip),%xmm8 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,254,204,1,0 // movdqa 0x1ccfe(%rip),%xmm10 # 33e00 <_sk_srcover_rgba_8888_sse2_lowp+0x1384>
+ .byte 102,68,15,111,21,190,49,1,0 // movdqa 0x131be(%rip),%xmm10 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,1,205,1,0 // movdqa 0x1cd01(%rip),%xmm3 # 33e10 <_sk_srcover_rgba_8888_sse2_lowp+0x1394>
+ .byte 102,15,111,29,193,49,1,0 // movdqa 0x131c1(%rip),%xmm3 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,237,204,1,0 // movdqa 0x1cced(%rip),%xmm11 # 33e20 <_sk_srcover_rgba_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,29,173,49,1,0 // movdqa 0x131ad(%rip),%xmm11 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31827,20 +31827,20 @@ _sk_store_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,13,21,204,1,0 // movdqa 0x1cc15(%rip),%xmm9 # 33e30 <_sk_srcover_rgba_8888_sse2_lowp+0x13b4>
+ .byte 102,68,15,111,13,213,48,1,0 // movdqa 0x130d5(%rip),%xmm9 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,18,204,1,0 // movdqa 0x1cc12(%rip),%xmm11 # 33e40 <_sk_srcover_rgba_8888_sse2_lowp+0x13c4>
+ .byte 102,68,15,111,29,210,48,1,0 // movdqa 0x130d2(%rip),%xmm11 # 2a300 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,15,204,1,0 // movdqa 0x1cc0f(%rip),%xmm10 # 33e50 <_sk_srcover_rgba_8888_sse2_lowp+0x13d4>
+ .byte 102,68,15,111,21,207,48,1,0 // movdqa 0x130cf(%rip),%xmm10 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,245,203,1,0 // movdqa 0x1cbf5(%rip),%xmm12 # 33e60 <_sk_srcover_rgba_8888_sse2_lowp+0x13e4>
+ .byte 102,68,15,111,37,181,48,1,0 // movdqa 0x130b5(%rip),%xmm12 # 2a320 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -31930,7 +31930,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,189,199,1,0 // movaps 0x1c7bd(%rip),%xmm8 # 33bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 68,15,40,5,125,44,1,0 // movaps 0x12c7d(%rip),%xmm8 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -32004,7 +32004,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,140,198,1,0 // movaps 0x1c68c(%rip),%xmm8 # 33bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 68,15,40,5,76,43,1,0 // movaps 0x12b4c(%rip),%xmm8 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -32021,7 +32021,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,179,195,1,0 // movaps 0x1c3b3(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,115,40,1,0 // movaps 0x12873(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -32055,7 +32055,7 @@ _sk_store_u16_be_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,108,200,1,0 // movaps 0x1c86c(%rip),%xmm10 # 33e70 <_sk_srcover_rgba_8888_sse2_lowp+0x13f4>
+ .byte 68,15,40,21,44,45,1,0 // movaps 0x12d2c(%rip),%xmm10 # 2a330 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -32330,7 +32330,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,58,189,1,0 // mulss 0x1bd3a(%rip),%xmm9 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 243,68,15,89,13,26,34,1,0 // mulss 0x1221a(%rip),%xmm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -32361,7 +32361,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,200,188,1,0 // mulss 0x1bcc8(%rip),%xmm9 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 243,68,15,89,13,168,33,1,0 // mulss 0x121a8(%rip),%xmm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -32386,7 +32386,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,159,190,1,0 // minps 0x1be9f(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,93,5,95,35,1,0 // minps 0x1235f(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -32404,9 +32404,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,224,190,1,0 // movaps 0x1bee0(%rip),%xmm8 # 33990 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 68,15,40,5,160,35,1,0 // movaps 0x123a0(%rip),%xmm8 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,100,190,1,0 // movaps 0x1be64(%rip),%xmm9 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,13,36,35,1,0 // movaps 0x12324(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -32423,10 +32423,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,147,195,1,0 // mulps 0x1c393(%rip),%xmm0 # 33e80 <_sk_srcover_rgba_8888_sse2_lowp+0x1404>
- .byte 15,89,13,156,195,1,0 // mulps 0x1c39c(%rip),%xmm1 # 33e90 <_sk_srcover_rgba_8888_sse2_lowp+0x1414>
+ .byte 15,89,5,83,40,1,0 // mulps 0x12853(%rip),%xmm0 # 2a340 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 15,89,13,92,40,1,0 // mulps 0x1285c(%rip),%xmm1 # 2a350 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,162,195,1,0 // mulps 0x1c3a2(%rip),%xmm3 # 33ea0 <_sk_srcover_rgba_8888_sse2_lowp+0x1424>
+ .byte 15,89,29,98,40,1,0 // mulps 0x12862(%rip),%xmm3 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -32829,15 +32829,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,81,189,1,0 // movaps 0x1bd51(%rip),%xmm0 # 33eb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1434>
+ .byte 15,40,5,17,34,1,0 // movaps 0x12211(%rip),%xmm0 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,87,189,1,0 // addps 0x1bd57(%rip),%xmm0 # 33ec0 <_sk_srcover_rgba_8888_sse2_lowp+0x1444>
+ .byte 15,88,5,23,34,1,0 // addps 0x12217(%rip),%xmm0 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,93,189,1,0 // addps 0x1bd5d(%rip),%xmm0 # 33ed0 <_sk_srcover_rgba_8888_sse2_lowp+0x1454>
+ .byte 15,88,5,29,34,1,0 // addps 0x1221d(%rip),%xmm0 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,99,189,1,0 // addps 0x1bd63(%rip),%xmm0 # 33ee0 <_sk_srcover_rgba_8888_sse2_lowp+0x1464>
+ .byte 15,88,5,35,34,1,0 // addps 0x12223(%rip),%xmm0 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,105,189,1,0 // addps 0x1bd69(%rip),%xmm0 # 33ef0 <_sk_srcover_rgba_8888_sse2_lowp+0x1474>
+ .byte 15,88,5,41,34,1,0 // addps 0x12229(%rip),%xmm0 # 2a3b0 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -32994,26 +32994,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,224,186,1,0 // movaps 0x1bae0(%rip),%xmm10 # 33f00 <_sk_srcover_rgba_8888_sse2_lowp+0x1484>
+ .byte 68,15,40,21,160,31,1,0 // movaps 0x11fa0(%rip),%xmm10 # 2a3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,228,186,1,0 // addps 0x1bae4(%rip),%xmm10 # 33f10 <_sk_srcover_rgba_8888_sse2_lowp+0x1494>
+ .byte 68,15,88,21,164,31,1,0 // addps 0x11fa4(%rip),%xmm10 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,232,186,1,0 // addps 0x1bae8(%rip),%xmm10 # 33f20 <_sk_srcover_rgba_8888_sse2_lowp+0x14a4>
+ .byte 68,15,88,21,168,31,1,0 // addps 0x11fa8(%rip),%xmm10 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,236,186,1,0 // addps 0x1baec(%rip),%xmm10 # 33f30 <_sk_srcover_rgba_8888_sse2_lowp+0x14b4>
+ .byte 68,15,88,21,172,31,1,0 // addps 0x11fac(%rip),%xmm10 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,235,186,1,0 // movaps 0x1baeb(%rip),%xmm11 # 33f40 <_sk_srcover_rgba_8888_sse2_lowp+0x14c4>
+ .byte 68,15,40,29,171,31,1,0 // movaps 0x11fab(%rip),%xmm11 # 2a400 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,180,180,1,0 // movaps 0x1b4b4(%rip),%xmm11 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,29,116,25,1,0 // movaps 0x11974(%rip),%xmm11 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,166,180,1,0 // movaps 0x1b4a6(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,102,25,1,0 // movaps 0x11966(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -33047,7 +33047,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,95,186,1,0 // mulps 0x1ba5f(%rip),%xmm9 # 33f50 <_sk_srcover_rgba_8888_sse2_lowp+0x14d4>
+ .byte 68,15,89,13,31,31,1,0 // mulps 0x11f1f(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -33055,7 +33055,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,74,186,1,0 // mulps 0x1ba4a(%rip),%xmm10 # 33f60 <_sk_srcover_rgba_8888_sse2_lowp+0x14e4>
+ .byte 68,15,89,21,10,31,1,0 // mulps 0x11f0a(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -33064,8 +33064,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,242,184,1,0 // xorps 0x1b8f2(%rip),%xmm9 # 33e30 <_sk_srcover_rgba_8888_sse2_lowp+0x13b4>
- .byte 68,15,89,5,218,179,1,0 // mulps 0x1b3da(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,87,13,178,29,1,0 // xorps 0x11db2(%rip),%xmm9 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,89,5,154,24,1,0 // mulps 0x1189a(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -33086,7 +33086,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,193,185,1,0 // mulps 0x1b9c1(%rip),%xmm9 # 33f50 <_sk_srcover_rgba_8888_sse2_lowp+0x14d4>
+ .byte 68,15,89,13,129,30,1,0 // mulps 0x11e81(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -33094,7 +33094,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,172,185,1,0 // mulps 0x1b9ac(%rip),%xmm10 # 33f60 <_sk_srcover_rgba_8888_sse2_lowp+0x14e4>
+ .byte 68,15,89,21,108,30,1,0 // mulps 0x11e6c(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -33103,8 +33103,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,84,184,1,0 // xorps 0x1b854(%rip),%xmm9 # 33e30 <_sk_srcover_rgba_8888_sse2_lowp+0x13b4>
- .byte 68,15,89,5,60,179,1,0 // mulps 0x1b33c(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,87,13,20,29,1,0 // xorps 0x11d14(%rip),%xmm9 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,89,5,252,23,1,0 // mulps 0x117fc(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -33122,7 +33122,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,52,185,1,0 // mulps 0x1b934(%rip),%xmm9 # 33f50 <_sk_srcover_rgba_8888_sse2_lowp+0x14d4>
+ .byte 68,15,89,13,244,29,1,0 // mulps 0x11df4(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -33130,7 +33130,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,240,183,1,0 // xorps 0x1b7f0(%rip),%xmm0 # 33e30 <_sk_srcover_rgba_8888_sse2_lowp+0x13b4>
+ .byte 15,87,5,176,28,1,0 // xorps 0x11cb0(%rip),%xmm0 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33173,7 +33173,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,118,178,1,0 // movaps 0x1b276(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,5,54,23,1,0 // movaps 0x11736(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -33217,8 +33217,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,56,184,1,0 // addps 0x1b838(%rip),%xmm0 # 33f70 <_sk_srcover_rgba_8888_sse2_lowp+0x14f4>
- .byte 68,15,40,13,240,177,1,0 // movaps 0x1b1f0(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,5,248,28,1,0 // addps 0x11cf8(%rip),%xmm0 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,13,176,22,1,0 // movaps 0x116b0(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33231,7 +33231,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,191,177,1,0 // addps 0x1b1bf(%rip),%xmm0 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,88,5,127,22,1,0 // addps 0x1167f(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33243,8 +33243,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,241,183,1,0 // addps 0x1b7f1(%rip),%xmm1 # 33f70 <_sk_srcover_rgba_8888_sse2_lowp+0x14f4>
- .byte 68,15,40,13,169,177,1,0 // movaps 0x1b1a9(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,13,177,28,1,0 // addps 0x11cb1(%rip),%xmm1 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,13,105,22,1,0 // movaps 0x11669(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33257,7 +33257,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,119,177,1,0 // addps 0x1b177(%rip),%xmm1 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,88,13,55,22,1,0 // addps 0x11637(%rip),%xmm1 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33269,13 +33269,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,186,183,1,0 // addps 0x1b7ba(%rip),%xmm0 # 33f80 <_sk_srcover_rgba_8888_sse2_lowp+0x1504>
- .byte 68,15,40,13,98,177,1,0 // movaps 0x1b162(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,5,122,28,1,0 // addps 0x11c7a(%rip),%xmm0 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
+ .byte 68,15,40,13,34,22,1,0 // movaps 0x11622(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,174,183,1,0 // mulps 0x1b7ae(%rip),%xmm9 # 33f90 <_sk_srcover_rgba_8888_sse2_lowp+0x1514>
- .byte 68,15,88,13,54,179,1,0 // addps 0x1b336(%rip),%xmm9 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,89,13,110,28,1,0 // mulps 0x11c6e(%rip),%xmm9 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,13,246,23,1,0 // addps 0x117f6(%rip),%xmm9 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33288,16 +33288,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,101,183,1,0 // addps 0x1b765(%rip),%xmm0 # 33f70 <_sk_srcover_rgba_8888_sse2_lowp+0x14f4>
- .byte 68,15,40,13,29,177,1,0 // movaps 0x1b11d(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,5,37,28,1,0 // addps 0x11c25(%rip),%xmm0 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,13,221,21,1,0 // movaps 0x115dd(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,129,183,1,0 // movaps 0x1b781(%rip),%xmm8 # 33fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1524>
+ .byte 68,15,40,5,65,28,1,0 // movaps 0x11c41(%rip),%xmm8 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,133,183,1,0 // addps 0x1b785(%rip),%xmm8 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 68,15,88,5,69,28,1,0 // addps 0x11c45(%rip),%xmm8 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,233,176,1,0 // addps 0x1b0e9(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,88,5,169,21,1,0 // addps 0x115a9(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,125,183,1,0 // addps 0x1b77d(%rip),%xmm8 # 33fc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1544>
+ .byte 68,15,88,5,61,28,1,0 // addps 0x11c3d(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33307,17 +33307,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,199,176,1,0 // movaps 0x1b0c7(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,5,135,21,1,0 // movaps 0x11587(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,51,183,1,0 // movaps 0x1b733(%rip),%xmm10 # 33fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1524>
+ .byte 68,15,40,21,243,27,1,0 // movaps 0x11bf3(%rip),%xmm10 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,55,183,1,0 // addps 0x1b737(%rip),%xmm10 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 68,15,88,21,247,27,1,0 // addps 0x11bf7(%rip),%xmm10 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,51,183,1,0 // addps 0x1b733(%rip),%xmm10 # 33fc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1544>
+ .byte 68,15,88,21,243,27,1,0 // addps 0x11bf3(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33329,11 +33329,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,6,183,1,0 // addps 0x1b706(%rip),%xmm0 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 15,88,5,198,27,1,0 // addps 0x11bc6(%rip),%xmm0 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,214,182,1,0 // mulps 0x1b6d6(%rip),%xmm8 # 33f90 <_sk_srcover_rgba_8888_sse2_lowp+0x1514>
- .byte 68,15,88,5,94,178,1,0 // addps 0x1b25e(%rip),%xmm8 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,89,5,150,27,1,0 // mulps 0x11b96(%rip),%xmm8 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,5,30,23,1,0 // addps 0x1171e(%rip),%xmm8 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33346,13 +33346,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,156,182,1,0 // addps 0x1b69c(%rip),%xmm1 # 33f80 <_sk_srcover_rgba_8888_sse2_lowp+0x1504>
- .byte 68,15,40,13,68,176,1,0 // movaps 0x1b044(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,13,92,27,1,0 // addps 0x11b5c(%rip),%xmm1 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
+ .byte 68,15,40,13,4,21,1,0 // movaps 0x11504(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,144,182,1,0 // mulps 0x1b690(%rip),%xmm9 # 33f90 <_sk_srcover_rgba_8888_sse2_lowp+0x1514>
- .byte 68,15,88,13,24,178,1,0 // addps 0x1b218(%rip),%xmm9 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,89,13,80,27,1,0 // mulps 0x11b50(%rip),%xmm9 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,13,216,22,1,0 // addps 0x116d8(%rip),%xmm9 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33365,16 +33365,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,70,182,1,0 // addps 0x1b646(%rip),%xmm1 # 33f70 <_sk_srcover_rgba_8888_sse2_lowp+0x14f4>
- .byte 68,15,40,13,254,175,1,0 // movaps 0x1affe(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,13,6,27,1,0 // addps 0x11b06(%rip),%xmm1 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,13,190,20,1,0 // movaps 0x114be(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,98,182,1,0 // movaps 0x1b662(%rip),%xmm8 # 33fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1524>
+ .byte 68,15,40,5,34,27,1,0 // movaps 0x11b22(%rip),%xmm8 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,102,182,1,0 // addps 0x1b666(%rip),%xmm8 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 68,15,88,5,38,27,1,0 // addps 0x11b26(%rip),%xmm8 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,202,175,1,0 // addps 0x1afca(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,88,5,138,20,1,0 // addps 0x1148a(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,94,182,1,0 // addps 0x1b65e(%rip),%xmm8 # 33fc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1544>
+ .byte 68,15,88,5,30,27,1,0 // addps 0x11b1e(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33384,17 +33384,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,168,175,1,0 // movaps 0x1afa8(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,5,104,20,1,0 // movaps 0x11468(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,19,182,1,0 // movaps 0x1b613(%rip),%xmm10 # 33fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1524>
+ .byte 68,15,40,21,211,26,1,0 // movaps 0x11ad3(%rip),%xmm10 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,23,182,1,0 // addps 0x1b617(%rip),%xmm10 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 68,15,88,21,215,26,1,0 // addps 0x11ad7(%rip),%xmm10 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,19,182,1,0 // addps 0x1b613(%rip),%xmm10 # 33fc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1544>
+ .byte 68,15,88,21,211,26,1,0 // addps 0x11ad3(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33406,11 +33406,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,229,181,1,0 // addps 0x1b5e5(%rip),%xmm1 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 15,88,13,165,26,1,0 // addps 0x11aa5(%rip),%xmm1 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,181,181,1,0 // mulps 0x1b5b5(%rip),%xmm8 # 33f90 <_sk_srcover_rgba_8888_sse2_lowp+0x1514>
- .byte 68,15,88,5,61,177,1,0 // addps 0x1b13d(%rip),%xmm8 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,89,5,117,26,1,0 // mulps 0x11a75(%rip),%xmm8 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,5,253,21,1,0 // addps 0x115fd(%rip),%xmm8 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33521,7 +33521,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,160,180,1,0 // movaps 0x1b4a0(%rip),%xmm4 # 33fd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1554>
+ .byte 15,40,37,96,25,1,0 // movaps 0x11960(%rip),%xmm4 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -33560,7 +33560,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,247,179,1,0 // movdqa 0x1b3f7(%rip),%xmm12 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,68,15,111,37,183,24,1,0 // movdqa 0x118b7(%rip),%xmm12 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -33583,7 +33583,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,251,172,1,0 // movdqa 0x1acfb(%rip),%xmm4 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,37,187,17,1,0 // movdqa 0x111bb(%rip),%xmm4 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -33756,7 +33756,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,6,176,1,0 // movdqa 0x1b006(%rip),%xmm5 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,45,198,20,1,0 // movdqa 0x114c6(%rip),%xmm5 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -33777,7 +33777,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,23,169,1,0 // movdqa 0x1a917(%rip),%xmm7 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,61,215,13,1,0 // movdqa 0x10dd7(%rip),%xmm7 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -33843,7 +33843,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,66,174,1,0 // movdqa 0x1ae42(%rip),%xmm1 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,13,2,19,1,0 // movdqa 0x11302(%rip),%xmm1 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -33864,7 +33864,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,77,167,1,0 // movdqa 0x1a74d(%rip),%xmm2 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,21,13,12,1,0 // movdqa 0x10c0d(%rip),%xmm2 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -33991,7 +33991,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,160,171,1,0 // movaps 0x1aba0(%rip),%xmm3 # 33fd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1554>
+ .byte 15,40,29,96,16,1,0 // movaps 0x11060(%rip),%xmm3 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -34048,7 +34048,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,159,170,1,0 // movdqa 0x1aa9f(%rip),%xmm11 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,68,15,111,29,95,15,1,0 // movdqa 0x10f5f(%rip),%xmm11 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -34070,7 +34070,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,167,163,1,0 // movdqa 0x1a3a7(%rip),%xmm10 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,21,103,8,1,0 // movdqa 0x10867(%rip),%xmm10 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -34088,7 +34088,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,213,169,1,0 // psubd 0x1a9d5(%rip),%xmm3 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,29,149,14,1,0 // psubd 0x10e95(%rip),%xmm3 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -34143,7 +34143,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,181,168,1,0 // psubd 0x1a8b5(%rip),%xmm5 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,45,117,13,1,0 // psubd 0x10d75(%rip),%xmm5 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -34268,7 +34268,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,153,159,1,0 // movdqa 0x19f99(%rip),%xmm7 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,61,89,4,1,0 // movdqa 0x10459(%rip),%xmm7 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -34354,7 +34354,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,221,157,1,0 // movdqa 0x19ddd(%rip),%xmm10 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,21,157,2,1,0 // movdqa 0x1029d(%rip),%xmm10 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34450,7 +34450,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,119,162,1,0 // movdqa 0x1a277(%rip),%xmm2 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,21,55,7,1,0 // movdqa 0x10737(%rip),%xmm2 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -34471,7 +34471,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,134,155,1,0 // movdqa 0x19b86(%rip),%xmm4 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,37,70,0,1,0 // movdqa 0x10046(%rip),%xmm4 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -34543,7 +34543,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,162,160,1,0 // psubd 0x1a0a2(%rip),%xmm2 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,21,98,5,1,0 // psubd 0x10562(%rip),%xmm2 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34577,7 +34577,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,238,159,1,0 // psubd 0x19fee(%rip),%xmm1 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,13,174,4,1,0 // psubd 0x104ae(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34642,7 +34642,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,133,158,1,0 // movdqa 0x19e85(%rip),%xmm4 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,37,69,3,1,0 // movdqa 0x10345(%rip),%xmm4 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -34663,7 +34663,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,150,151,1,0 // movdqa 0x19796(%rip),%xmm3 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,29,86,252,0,0 // movdqa 0xfc56(%rip),%xmm3 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34735,7 +34735,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,182,156,1,0 // psubd 0x19cb6(%rip),%xmm0 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,5,118,1,1,0 // psubd 0x10176(%rip),%xmm0 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34753,7 +34753,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,196,149,1,0 // paddd 0x195c4(%rip),%xmm0 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,254,5,132,250,0,0 // paddd 0xfa84(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34769,7 +34769,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,253,155,1,0 // psubd 0x19bfd(%rip),%xmm0 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,5,189,0,1,0 // psubd 0x100bd(%rip),%xmm0 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34787,7 +34787,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,11,149,1,0 // paddd 0x1950b(%rip),%xmm0 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,254,5,203,249,0,0 // paddd 0xf9cb(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -34850,7 +34850,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,200,147,1,0 // movaps 0x193c8(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,136,248,0,0 // movaps 0xf888(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -34935,13 +34935,13 @@ _sk_seed_shader_sse2:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,215,146,1,0 // addps 0x192d7(%rip),%xmm0 # 33910 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 15,88,5,151,247,0,0 // addps 0xf797(%rip),%xmm0 # 29dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,212,146,1,0 // addps 0x192d4(%rip),%xmm1 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,88,13,148,247,0,0 // addps 0xf794(%rip),%xmm1 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,219,146,1,0 // movaps 0x192db(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,21,155,247,0,0 // movaps 0xf79b(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -34956,18 +34956,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,116,146,1,0 // paddd 0x19274(%rip),%xmm8 # 338f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 102,68,15,254,5,52,247,0,0 // paddd 0xf734(%rip),%xmm8 # 29db0 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,171,146,1,0 // movdqa 0x192ab(%rip),%xmm10 # 33940 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 102,68,15,111,21,107,247,0,0 // movdqa 0xf76b(%rip),%xmm10 # 29e00 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,151,146,1,0 // movdqa 0x19297(%rip),%xmm12 # 33950 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
- .byte 102,68,15,111,45,158,146,1,0 // movdqa 0x1929e(%rip),%xmm13 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,37,87,247,0,0 // movdqa 0xf757(%rip),%xmm12 # 29e10 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
+ .byte 102,68,15,111,45,94,247,0,0 // movdqa 0xf75e(%rip),%xmm13 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -34983,8 +34983,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,89,146,1,0 // mulps 0x19259(%rip),%xmm8 # 33970 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
- .byte 68,15,88,5,97,146,1,0 // addps 0x19261(%rip),%xmm8 # 33980 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 68,15,89,5,25,247,0,0 // mulps 0xf719(%rip),%xmm8 # 29e30 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
+ .byte 68,15,88,5,33,247,0,0 // addps 0xf721(%rip),%xmm8 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -35026,7 +35026,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,151,145,1,0 // movaps 0x19197(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,87,246,0,0 // movaps 0xf657(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -35037,7 +35037,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,131,145,1,0 // movaps 0x19183(%rip),%xmm0 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,5,67,246,0,0 // movaps 0xf643(%rip),%xmm0 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -35083,7 +35083,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,51,145,1,0 // movaps 0x19133(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,243,245,0,0 // movaps 0xf5f3(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35108,7 +35108,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,230,144,1,0 // movaps 0x190e6(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,166,245,0,0 // movaps 0xf5a6(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -35155,7 +35155,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,122,144,1,0 // movaps 0x1907a(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,58,245,0,0 // movaps 0xf53a(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -35168,7 +35168,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,90,144,1,0 // movaps 0x1905a(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,26,245,0,0 // movaps 0xf51a(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -35185,7 +35185,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,45,144,1,0 // movaps 0x1902d(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,237,244,0,0 // movaps 0xf4ed(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35205,7 +35205,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,241,143,1,0 // movaps 0x18ff1(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,177,244,0,0 // movaps 0xf4b1(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -35233,7 +35233,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,181,143,1,0 // movaps 0x18fb5(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,117,244,0,0 // movaps 0xf475(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -35271,7 +35271,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,54,143,1,0 // movaps 0x18f36(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,246,243,0,0 // movaps 0xf3f6(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -35313,7 +35313,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,194,142,1,0 // movaps 0x18ec2(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,130,243,0,0 // movaps 0xf382(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -35361,7 +35361,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,29,142,1,0 // movaps 0x18e1d(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,21,221,242,0,0 // movaps 0xf2dd(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35395,7 +35395,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,178,141,1,0 // movaps 0x18db2(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,21,114,242,0,0 // movaps 0xf272(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35432,7 +35432,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,60,141,1,0 // movaps 0x18d3c(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,21,252,241,0,0 // movaps 0xf1fc(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35460,7 +35460,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,236,140,1,0 // movaps 0x18cec(%rip),%xmm2 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,21,172,241,0,0 // movaps 0xf1ac(%rip),%xmm2 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35473,7 +35473,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,207,140,1,0 // movaps 0x18ccf(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,143,241,0,0 // movaps 0xf18f(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35568,7 +35568,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,119,139,1,0 // movaps 0x18b77(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,55,240,0,0 // movaps 0xf037(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -35660,7 +35660,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,32,138,1,0 // movaps 0x18a20(%rip),%xmm11 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,29,224,238,0,0 // movaps 0xeee0(%rip),%xmm11 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -35748,7 +35748,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,222,136,1,0 // movaps 0x188de(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,158,237,0,0 // movaps 0xed9e(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35839,7 +35839,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,139,135,1,0 // movaps 0x1878b(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,75,236,0,0 // movaps 0xec4b(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35852,10 +35852,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,181,135,1,0 // movaps 0x187b5(%rip),%xmm14 # 33990 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 68,15,40,53,117,236,0,0 // movaps 0xec75(%rip),%xmm14 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,181,135,1,0 // movaps 0x187b5(%rip),%xmm10 # 339a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 68,15,40,21,117,236,0,0 // movaps 0xec75(%rip),%xmm10 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -36000,7 +36000,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,72,133,1,0 // movaps 0x18548(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,8,234,0,0 // movaps 0xea08(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -36048,12 +36048,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,5,133,1,0 // movaps 0x18505(%rip),%xmm15 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,40,61,197,233,0,0 // movaps 0xe9c5(%rip),%xmm15 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,10,133,1,0 // movaps 0x1850a(%rip),%xmm0 # 339c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 15,40,5,202,233,0,0 // movaps 0xe9ca(%rip),%xmm0 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,12,133,1,0 // movaps 0x1850c(%rip),%xmm14 # 339d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,53,204,233,0,0 // movaps 0xe9cc(%rip),%xmm14 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -36231,14 +36231,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,94,130,1,0 // movaps 0x1825e(%rip),%xmm8 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,40,5,30,231,0,0 // movaps 0xe71e(%rip),%xmm8 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,96,130,1,0 // movaps 0x18260(%rip),%xmm1 # 339c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 15,40,13,32,231,0,0 // movaps 0xe720(%rip),%xmm1 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,95,130,1,0 // movaps 0x1825f(%rip),%xmm12 # 339d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,37,31,231,0,0 // movaps 0xe71f(%rip),%xmm12 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -36283,7 +36283,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,20,129,1,0 // movaps 0x18114(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,212,229,0,0 // movaps 0xe5d4(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -36384,14 +36384,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,34,128,1,0 // movaps 0x18022(%rip),%xmm13 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,40,45,226,228,0,0 // movaps 0xe4e2(%rip),%xmm13 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,34,128,1,0 // movaps 0x18022(%rip),%xmm14 # 339c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 68,15,40,53,226,228,0,0 // movaps 0xe4e2(%rip),%xmm14 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,30,128,1,0 // movaps 0x1801e(%rip),%xmm11 # 339d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,29,222,228,0,0 // movaps 0xe4de(%rip),%xmm11 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -36399,7 +36399,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,90,127,1,0 // movaps 0x17f5a(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,26,228,0,0 // movaps 0xe41a(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -36535,15 +36535,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,225,125,1,0 // movaps 0x17de1(%rip),%xmm12 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,40,37,161,226,0,0 // movaps 0xe2a1(%rip),%xmm12 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,225,125,1,0 // movaps 0x17de1(%rip),%xmm13 # 339c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 68,15,40,45,161,226,0,0 // movaps 0xe2a1(%rip),%xmm13 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,221,125,1,0 // movaps 0x17ddd(%rip),%xmm11 # 339d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
- .byte 68,15,40,5,53,125,1,0 // movaps 0x17d35(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,29,157,226,0,0 // movaps 0xe29d(%rip),%xmm11 # 29e90 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+ .byte 68,15,40,5,245,225,0,0 // movaps 0xe1f5(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -36687,7 +36687,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,133,228,0,0,0 // jne 1bee6 <_sk_srcover_rgba_8888_sse2+0x104>
.byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,205,123,1,0 // movdqa 0x17bcd(%rip),%xmm6 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,53,141,224,0,0 // movdqa 0xe08d(%rip),%xmm6 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -36701,9 +36701,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,221,122,1,0 // movaps 0x17add(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,157,223,0,0 // movaps 0xdf9d(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,177,123,1,0 // movaps 0x17bb1(%rip),%xmm12 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,40,37,113,224,0,0 // movaps 0xe071(%rip),%xmm12 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -36783,7 +36783,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,173,121,1,0 // movaps 0x179ad(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,109,222,0,0 // movaps 0xde6d(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -36795,7 +36795,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,146,121,1,0 // minps 0x17992(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,93,29,82,222,0,0 // minps 0xde52(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -36806,7 +36806,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,126,121,1,0 // minps 0x1797e(%rip),%xmm7 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,93,61,62,222,0,0 // minps 0xde3e(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -36841,7 +36841,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,58,121,1,0 // movaps 0x1793a(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,250,221,0,0 // movaps 0xddfa(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -36903,7 +36903,7 @@ HIDDEN _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,196,120,1,0 // movaps 0x178c4(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,132,221,0,0 // movaps 0xdd84(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -36917,20 +36917,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,143,121,1,0 // movaps 0x1798f(%rip),%xmm8 # 33a20 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,5,79,222,0,0 // movaps 0xde4f(%rip),%xmm8 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,7,121,1,0 // movaps 0x17907(%rip),%xmm9 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,40,13,199,221,0,0 // movaps 0xddc7(%rip),%xmm9 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,119,121,1,0 // movaps 0x17977(%rip),%xmm10 # 33a30 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 68,15,40,21,55,222,0,0 // movaps 0xde37(%rip),%xmm10 # 29ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,119,121,1,0 // movaps 0x17977(%rip),%xmm11 # 33a40 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,29,55,222,0,0 // movaps 0xde37(%rip),%xmm11 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,123,121,1,0 // movaps 0x1797b(%rip),%xmm12 # 33a50 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
+ .byte 68,15,40,37,59,222,0,0 // movaps 0xde3b(%rip),%xmm12 # 29f10 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -36966,20 +36966,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,204,120,1,0 // movaps 0x178cc(%rip),%xmm8 # 33a20 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 68,15,40,5,140,221,0,0 // movaps 0xdd8c(%rip),%xmm8 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,68,120,1,0 // movaps 0x17844(%rip),%xmm9 # 339b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,40,13,4,221,0,0 // movaps 0xdd04(%rip),%xmm9 # 29e70 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,180,120,1,0 // movaps 0x178b4(%rip),%xmm10 # 33a30 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 68,15,40,21,116,221,0,0 // movaps 0xdd74(%rip),%xmm10 # 29ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,180,120,1,0 // movaps 0x178b4(%rip),%xmm11 # 33a40 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
+ .byte 68,15,40,29,116,221,0,0 // movaps 0xdd74(%rip),%xmm11 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,184,120,1,0 // movaps 0x178b8(%rip),%xmm12 # 33a50 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
+ .byte 68,15,40,37,120,221,0,0 // movaps 0xdd78(%rip),%xmm12 # 29f10 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -37016,22 +37016,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,69,120,1,0 // movaps 0x17845(%rip),%xmm8 # 33a60 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,5,5,221,0,0 // movaps 0xdd05(%rip),%xmm8 # 29f20 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,69,120,1,0 // movaps 0x17845(%rip),%xmm9 # 33a70 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
+ .byte 68,15,40,13,5,221,0,0 // movaps 0xdd05(%rip),%xmm9 # 29f30 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,69,120,1,0 // movaps 0x17845(%rip),%xmm10 # 33a80 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
+ .byte 68,15,40,21,5,221,0,0 // movaps 0xdd05(%rip),%xmm10 # 29f40 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,69,120,1,0 // movaps 0x17845(%rip),%xmm11 # 33a90 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
+ .byte 68,15,40,29,5,221,0,0 // movaps 0xdd05(%rip),%xmm11 # 29f50 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,73,120,1,0 // movaps 0x17849(%rip),%xmm12 # 33aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
+ .byte 68,15,40,37,9,221,0,0 // movaps 0xdd09(%rip),%xmm12 # 29f60 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,69,120,1,0 // movaps 0x17845(%rip),%xmm15 # 33ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
+ .byte 68,15,40,61,5,221,0,0 // movaps 0xdd05(%rip),%xmm15 # 29f70 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -37083,7 +37083,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,8,118,1,0 // movaps 0x17608(%rip),%xmm13 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,45,200,218,0,0 // movaps 0xdac8(%rip),%xmm13 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -37092,30 +37092,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,110,119,1,0 // andps 0x1776e(%rip),%xmm14 # 33ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
+ .byte 68,15,84,53,46,220,0,0 // andps 0xdc2e(%rip),%xmm14 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,97,119,1,0 // movaps 0x17761(%rip),%xmm12 # 33ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 68,15,40,37,33,220,0,0 // movaps 0xdc21(%rip),%xmm12 # 29f90 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,93,119,1,0 // addps 0x1775d(%rip),%xmm8 # 33ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 68,15,88,5,29,220,0,0 // addps 0xdc1d(%rip),%xmm8 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,78,119,1,0 // mulps 0x1774e(%rip),%xmm0 # 33af0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 15,89,5,14,220,0,0 // mulps 0xdc0e(%rip),%xmm0 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,97,117,1,0 // movaps 0x17561(%rip),%xmm9 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,13,33,218,0,0 // movaps 0xda21(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -37139,7 +37139,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,16,117,1,0 // movaps 0x17510(%rip),%xmm9 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,13,208,217,0,0 // movaps 0xd9d0(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -37156,28 +37156,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,169,118,1,0 // movaps 0x176a9(%rip),%xmm0 # 33b00 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
+ .byte 15,40,5,105,219,0,0 // movaps 0xdb69(%rip),%xmm0 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,193,116,1,0 // andps 0x174c1(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,84,29,129,217,0,0 // andps 0xd981(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,147,118,1,0 // movaps 0x17693(%rip),%xmm13 # 33b10 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,40,45,83,219,0,0 // movaps 0xdb53(%rip),%xmm13 # 29fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,83,118,1,0 // movaps 0x17653(%rip),%xmm2 # 33af0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 15,40,21,19,219,0,0 // movaps 0xdb13(%rip),%xmm2 # 29fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,19,118,1,0 // movaps 0x17613(%rip),%xmm1 # 33ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
+ .byte 15,40,13,211,218,0,0 // movaps 0xdad3(%rip),%xmm1 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,41,118,1,0 // movaps 0x17629(%rip),%xmm5 # 33ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 15,40,45,233,218,0,0 // movaps 0xdae9(%rip),%xmm5 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -37200,7 +37200,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,30,116,1,0 // andps 0x1741e(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,84,29,222,216,0,0 // andps 0xd8de(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -37230,12 +37230,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,150,117,1,0 // addps 0x17596(%rip),%xmm6 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 15,88,53,86,218,0,0 // addps 0xda56(%rip),%xmm6 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,145,115,1,0 // andps 0x17391(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,84,29,81,216,0,0 // andps 0xd851(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -37303,9 +37303,9 @@ _sk_scale_u8_sse2:
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,100,115,1,0 // pand 0x17364(%rip),%xmm8 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,219,5,36,216,0,0 // pand 0xd824(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,168,116,1,0 // mulps 0x174a8(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,5,104,217,0,0 // mulps 0xd968(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -37350,17 +37350,17 @@ _sk_scale_565_sse2:
.byte 15,133,173,0,0,0 // jne 1c7c5 <_sk_scale_565_sse2+0xcc>
.byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,20,116,1,0 // movdqa 0x17414(%rip),%xmm8 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 102,68,15,111,5,212,216,0,0 // movdqa 0xd8d4(%rip),%xmm8 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,19,116,1,0 // mulps 0x17413(%rip),%xmm8 # 33b50 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 102,68,15,111,13,26,116,1,0 // movdqa 0x1741a(%rip),%xmm9 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 68,15,89,5,211,216,0,0 // mulps 0xd8d3(%rip),%xmm8 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,13,218,216,0,0 // movdqa 0xd8da(%rip),%xmm9 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,25,116,1,0 // mulps 0x17419(%rip),%xmm9 # 33b70 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 102,68,15,219,21,32,116,1,0 // pand 0x17420(%rip),%xmm10 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,89,13,217,216,0,0 // mulps 0xd8d9(%rip),%xmm9 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 102,68,15,219,21,224,216,0,0 // pand 0xd8e0(%rip),%xmm10 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,36,116,1,0 // mulps 0x17424(%rip),%xmm10 # 33b90 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,89,21,228,216,0,0 // mulps 0xd8e4(%rip),%xmm10 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -37441,9 +37441,9 @@ _sk_lerp_u8_sse2:
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,90,113,1,0 // pand 0x1715a(%rip),%xmm8 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,219,5,26,214,0,0 // pand 0xd61a(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,158,114,1,0 // mulps 0x1729e(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,5,94,215,0,0 // mulps 0xd75e(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -37495,17 +37495,17 @@ _sk_lerp_565_sse2:
.byte 15,133,173,0,0,0 // jne 1c9e6 <_sk_lerp_565_sse2+0xcc>
.byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,243,113,1,0 // movdqa 0x171f3(%rip),%xmm9 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 102,68,15,111,13,179,214,0,0 // movdqa 0xd6b3(%rip),%xmm9 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,242,113,1,0 // mulps 0x171f2(%rip),%xmm9 # 33b50 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 102,68,15,111,21,249,113,1,0 // movdqa 0x171f9(%rip),%xmm10 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 68,15,89,13,178,214,0,0 // mulps 0xd6b2(%rip),%xmm9 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 102,68,15,111,21,185,214,0,0 // movdqa 0xd6b9(%rip),%xmm10 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,248,113,1,0 // mulps 0x171f8(%rip),%xmm11 # 33b70 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 102,68,15,219,5,255,113,1,0 // pand 0x171ff(%rip),%xmm8 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,89,29,184,214,0,0 // mulps 0xd6b8(%rip),%xmm11 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 102,68,15,219,5,191,214,0,0 // pand 0xd6bf(%rip),%xmm8 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,3,114,1,0 // mulps 0x17203(%rip),%xmm8 # 33b90 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,89,5,195,214,0,0 // mulps 0xd6c3(%rip),%xmm8 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -37562,7 +37562,7 @@ _sk_load_tables_sse2:
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,130,111,1,0 // movdqa 0x16f82(%rip),%xmm8 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,5,66,212,0,0 // movdqa 0xd442(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -37618,7 +37618,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,201,111,1,0 // mulps 0x16fc9(%rip),%xmm3 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,29,137,212,0,0 // mulps 0xd489(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37658,7 +37658,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,163,111,1,0 // movdqa 0x16fa3(%rip),%xmm2 # 33ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 102,15,111,21,99,212,0,0 // movdqa 0xd463(%rip),%xmm2 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -37719,7 +37719,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,161,110,1,0 // mulps 0x16ea1(%rip),%xmm3 # 33bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 15,89,29,97,211,0,0 // mulps 0xd361(%rip),%xmm3 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37760,7 +37760,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,229,109,1,0 // movdqa 0x16de5(%rip),%xmm8 # 33ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 102,68,15,111,5,165,210,0,0 // movdqa 0xd2a5(%rip),%xmm8 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -37815,7 +37815,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,114,106,1,0 // movaps 0x16a72(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,50,207,0,0 // movaps 0xcf32(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -37847,7 +37847,7 @@ _sk_byte_tables_sse2:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,223,106,1,0 // movaps 0x16adf(%rip),%xmm8 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,40,5,159,207,0,0 // movaps 0xcf9f(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
@@ -37875,7 +37875,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,138,107,1,0 // movaps 0x16b8a(%rip),%xmm10 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,21,74,208,0,0 // movaps 0xd04a(%rip),%xmm10 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -37994,7 +37994,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,202,105,1,0 // movaps 0x169ca(%rip),%xmm10 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,21,138,206,0,0 // movaps 0xce8a(%rip),%xmm10 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -38192,15 +38192,15 @@ _sk_parametric_r_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,150,103,1,0 // mulps 0x16796(%rip),%xmm9 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 68,15,84,21,158,103,1,0 // andps 0x1679e(%rip),%xmm10 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
- .byte 68,15,86,21,214,100,1,0 // orps 0x164d6(%rip),%xmm10 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
- .byte 68,15,88,13,158,103,1,0 // addps 0x1679e(%rip),%xmm9 # 33bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
- .byte 68,15,40,37,166,103,1,0 // movaps 0x167a6(%rip),%xmm12 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 68,15,89,13,86,204,0,0 // mulps 0xcc56(%rip),%xmm9 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,84,21,94,204,0,0 // andps 0xcc5e(%rip),%xmm10 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,86,21,150,201,0,0 // orps 0xc996(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,13,94,204,0,0 // addps 0xcc5e(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,40,37,102,204,0,0 // movaps 0xcc66(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,166,103,1,0 // addps 0x167a6(%rip),%xmm10 # 33c10 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
- .byte 68,15,40,37,174,103,1,0 // movaps 0x167ae(%rip),%xmm12 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 68,15,88,21,102,204,0,0 // addps 0xcc66(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,37,110,204,0,0 // movaps 0xcc6e(%rip),%xmm12 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38208,22 +38208,22 @@ _sk_parametric_r_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,152,100,1,0 // movaps 0x16498(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,88,201,0,0 // movaps 0xc958(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,124,103,1,0 // addps 0x1677c(%rip),%xmm9 # 33c30 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
- .byte 68,15,40,37,132,103,1,0 // movaps 0x16784(%rip),%xmm12 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 68,15,88,13,60,204,0,0 // addps 0xcc3c(%rip),%xmm9 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,37,68,204,0,0 // movaps 0xcc44(%rip),%xmm12 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,132,103,1,0 // movaps 0x16784(%rip),%xmm12 # 33c50 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,37,68,204,0,0 // movaps 0xcc44(%rip),%xmm12 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,136,103,1,0 // movaps 0x16788(%rip),%xmm13 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 68,15,40,45,72,204,0,0 // movaps 0xcc48(%rip),%xmm13 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,136,103,1,0 // mulps 0x16788(%rip),%xmm13 # 33c70 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 68,15,89,45,72,204,0,0 // mulps 0xcc48(%rip),%xmm13 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38259,15 +38259,15 @@ _sk_parametric_g_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,88,102,1,0 // mulps 0x16658(%rip),%xmm9 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 68,15,84,21,96,102,1,0 // andps 0x16660(%rip),%xmm10 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
- .byte 68,15,86,21,152,99,1,0 // orps 0x16398(%rip),%xmm10 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
- .byte 68,15,88,13,96,102,1,0 // addps 0x16660(%rip),%xmm9 # 33bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
- .byte 68,15,40,37,104,102,1,0 // movaps 0x16668(%rip),%xmm12 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 68,15,89,13,24,203,0,0 // mulps 0xcb18(%rip),%xmm9 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,84,21,32,203,0,0 // andps 0xcb20(%rip),%xmm10 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,86,21,88,200,0,0 // orps 0xc858(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,13,32,203,0,0 // addps 0xcb20(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,40,37,40,203,0,0 // movaps 0xcb28(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,104,102,1,0 // addps 0x16668(%rip),%xmm10 # 33c10 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
- .byte 68,15,40,37,112,102,1,0 // movaps 0x16670(%rip),%xmm12 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 68,15,88,21,40,203,0,0 // addps 0xcb28(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,37,48,203,0,0 // movaps 0xcb30(%rip),%xmm12 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38275,22 +38275,22 @@ _sk_parametric_g_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,90,99,1,0 // movaps 0x1635a(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,26,200,0,0 // movaps 0xc81a(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,62,102,1,0 // addps 0x1663e(%rip),%xmm9 # 33c30 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
- .byte 68,15,40,37,70,102,1,0 // movaps 0x16646(%rip),%xmm12 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 68,15,88,13,254,202,0,0 // addps 0xcafe(%rip),%xmm9 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,37,6,203,0,0 // movaps 0xcb06(%rip),%xmm12 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,70,102,1,0 // movaps 0x16646(%rip),%xmm12 # 33c50 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,37,6,203,0,0 // movaps 0xcb06(%rip),%xmm12 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,74,102,1,0 // movaps 0x1664a(%rip),%xmm13 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 68,15,40,45,10,203,0,0 // movaps 0xcb0a(%rip),%xmm13 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,74,102,1,0 // mulps 0x1664a(%rip),%xmm13 # 33c70 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 68,15,89,45,10,203,0,0 // mulps 0xcb0a(%rip),%xmm13 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38326,15 +38326,15 @@ _sk_parametric_b_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,26,101,1,0 // mulps 0x1651a(%rip),%xmm9 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 68,15,84,21,34,101,1,0 // andps 0x16522(%rip),%xmm10 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
- .byte 68,15,86,21,90,98,1,0 // orps 0x1625a(%rip),%xmm10 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
- .byte 68,15,88,13,34,101,1,0 // addps 0x16522(%rip),%xmm9 # 33bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
- .byte 68,15,40,37,42,101,1,0 // movaps 0x1652a(%rip),%xmm12 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 68,15,89,13,218,201,0,0 // mulps 0xc9da(%rip),%xmm9 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,84,21,226,201,0,0 // andps 0xc9e2(%rip),%xmm10 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,86,21,26,199,0,0 // orps 0xc71a(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,13,226,201,0,0 // addps 0xc9e2(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,40,37,234,201,0,0 // movaps 0xc9ea(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,42,101,1,0 // addps 0x1652a(%rip),%xmm10 # 33c10 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
- .byte 68,15,40,37,50,101,1,0 // movaps 0x16532(%rip),%xmm12 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 68,15,88,21,234,201,0,0 // addps 0xc9ea(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,37,242,201,0,0 // movaps 0xc9f2(%rip),%xmm12 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38342,22 +38342,22 @@ _sk_parametric_b_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,28,98,1,0 // movaps 0x1621c(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,220,198,0,0 // movaps 0xc6dc(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,0,101,1,0 // addps 0x16500(%rip),%xmm9 # 33c30 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
- .byte 68,15,40,37,8,101,1,0 // movaps 0x16508(%rip),%xmm12 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 68,15,88,13,192,201,0,0 // addps 0xc9c0(%rip),%xmm9 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,37,200,201,0,0 // movaps 0xc9c8(%rip),%xmm12 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,8,101,1,0 // movaps 0x16508(%rip),%xmm12 # 33c50 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,37,200,201,0,0 // movaps 0xc9c8(%rip),%xmm12 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,12,101,1,0 // movaps 0x1650c(%rip),%xmm13 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 68,15,40,45,204,201,0,0 // movaps 0xc9cc(%rip),%xmm13 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,12,101,1,0 // mulps 0x1650c(%rip),%xmm13 # 33c70 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 68,15,89,45,204,201,0,0 // mulps 0xc9cc(%rip),%xmm13 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38393,15 +38393,15 @@ _sk_parametric_a_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,220,99,1,0 // mulps 0x163dc(%rip),%xmm9 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 68,15,84,21,228,99,1,0 // andps 0x163e4(%rip),%xmm10 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
- .byte 68,15,86,21,28,97,1,0 // orps 0x1611c(%rip),%xmm10 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
- .byte 68,15,88,13,228,99,1,0 // addps 0x163e4(%rip),%xmm9 # 33bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
- .byte 68,15,40,37,236,99,1,0 // movaps 0x163ec(%rip),%xmm12 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 68,15,89,13,156,200,0,0 // mulps 0xc89c(%rip),%xmm9 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,84,21,164,200,0,0 // andps 0xc8a4(%rip),%xmm10 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,86,21,220,197,0,0 // orps 0xc5dc(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 68,15,88,13,164,200,0,0 // addps 0xc8a4(%rip),%xmm9 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,40,37,172,200,0,0 // movaps 0xc8ac(%rip),%xmm12 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,236,99,1,0 // addps 0x163ec(%rip),%xmm10 # 33c10 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
- .byte 68,15,40,37,244,99,1,0 // movaps 0x163f4(%rip),%xmm12 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 68,15,88,21,172,200,0,0 // addps 0xc8ac(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 68,15,40,37,180,200,0,0 // movaps 0xc8b4(%rip),%xmm12 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38409,22 +38409,22 @@ _sk_parametric_a_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,222,96,1,0 // movaps 0x160de(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,158,197,0,0 // movaps 0xc59e(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,194,99,1,0 // addps 0x163c2(%rip),%xmm9 # 33c30 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
- .byte 68,15,40,37,202,99,1,0 // movaps 0x163ca(%rip),%xmm12 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 68,15,88,13,130,200,0,0 // addps 0xc882(%rip),%xmm9 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,37,138,200,0,0 // movaps 0xc88a(%rip),%xmm12 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,202,99,1,0 // movaps 0x163ca(%rip),%xmm12 # 33c50 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 68,15,40,37,138,200,0,0 // movaps 0xc88a(%rip),%xmm12 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,206,99,1,0 // movaps 0x163ce(%rip),%xmm13 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 68,15,40,45,142,200,0,0 // movaps 0xc88e(%rip),%xmm13 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,206,99,1,0 // mulps 0x163ce(%rip),%xmm13 # 33c70 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 68,15,89,45,142,200,0,0 // mulps 0xc88e(%rip),%xmm13 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38449,19 +38449,19 @@ _sk_gamma_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,217,98,1,0 // mulps 0x162d9(%rip),%xmm0 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 15,84,21,226,98,1,0 // andps 0x162e2(%rip),%xmm2 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
- .byte 68,15,40,53,26,96,1,0 // movaps 0x1601a(%rip),%xmm14 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,89,5,153,199,0,0 // mulps 0xc799(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,84,21,162,199,0,0 // andps 0xc7a2(%rip),%xmm2 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,40,53,218,196,0,0 // movaps 0xc4da(%rip),%xmm14 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 65,15,86,214 // orps %xmm14,%xmm2
- .byte 68,15,40,37,222,98,1,0 // movaps 0x162de(%rip),%xmm12 # 33bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
+ .byte 68,15,40,37,158,199,0,0 // movaps 0xc79e(%rip),%xmm12 # 2a0b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 68,15,40,29,226,98,1,0 // movaps 0x162e2(%rip),%xmm11 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 68,15,40,29,162,199,0,0 // movaps 0xc7a2(%rip),%xmm11 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,21,224,98,1,0 // movaps 0x162e0(%rip),%xmm10 # 33c10 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 68,15,40,21,160,199,0,0 // movaps 0xc7a0(%rip),%xmm10 # 2a0d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 68,15,40,45,228,98,1,0 // movaps 0x162e4(%rip),%xmm13 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 68,15,40,45,164,199,0,0 // movaps 0xc7a4(%rip),%xmm13 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -38473,27 +38473,27 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,226,1 // cmpltps %xmm2,%xmm4
- .byte 68,15,40,13,196,95,1,0 // movaps 0x15fc4(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,13,132,196,0,0 // movaps 0xc484(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 65,15,84,225 // andps %xmm9,%xmm4
.byte 15,92,212 // subps %xmm4,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,176,98,1,0 // movaps 0x162b0(%rip),%xmm6 # 33c30 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 15,40,53,112,199,0,0 // movaps 0xc770(%rip),%xmm6 # 2a0f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,198,98,1,0 // movaps 0x162c6(%rip),%xmm7 # 33c50 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 15,40,61,134,199,0,0 // movaps 0xc786(%rip),%xmm7 # 2a110 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,166,98,1,0 // movaps 0x162a6(%rip),%xmm4 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 15,40,37,102,199,0,0 // movaps 0xc766(%rip),%xmm4 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,184,98,1,0 // movaps 0x162b8(%rip),%xmm15 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 68,15,40,61,120,199,0,0 // movaps 0xc778(%rip),%xmm15 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,20,98,1,0 // mulps 0x16214(%rip),%xmm0 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 15,84,13,29,98,1,0 // andps 0x1621d(%rip),%xmm1 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 15,89,5,212,198,0,0 // mulps 0xc6d4(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,84,13,221,198,0,0 // andps 0xc6dd(%rip),%xmm1 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 65,15,86,206 // orps %xmm14,%xmm1
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
@@ -38523,9 +38523,9 @@ _sk_gamma_sse2:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,163,97,1,0 // mulps 0x161a3(%rip),%xmm0 # 33bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
- .byte 15,84,29,172,97,1,0 // andps 0x161ac(%rip),%xmm3 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
- .byte 15,86,29,229,94,1,0 // orps 0x15ee5(%rip),%xmm3 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,89,5,99,198,0,0 // mulps 0xc663(%rip),%xmm0 # 2a090 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,84,29,108,198,0,0 // andps 0xc66c(%rip),%xmm3 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 15,86,29,165,195,0,0 // orps 0xc3a5(%rip),%xmm3 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
@@ -38547,7 +38547,7 @@ _sk_gamma_sse2:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,226,97,1,0 // movaps 0x161e2(%rip),%xmm0 # 33c70 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 15,40,5,162,198,0,0 // movaps 0xc6a2(%rip),%xmm0 # 2a130 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -38566,29 +38566,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,183,97,1,0 // mulps 0x161b7(%rip),%xmm0 # 33c80 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
- .byte 68,15,40,5,63,95,1,0 // movaps 0x15f3f(%rip),%xmm8 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 15,89,5,119,198,0,0 // mulps 0xc677(%rip),%xmm0 # 2a140 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,40,5,255,195,0,0 // movaps 0xc3ff(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,179,97,1,0 // movaps 0x161b3(%rip),%xmm9 # 33c90 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
+ .byte 68,15,40,13,115,198,0,0 // movaps 0xc673(%rip),%xmm9 # 2a150 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,176,97,1,0 // addps 0x161b0(%rip),%xmm0 # 33ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
- .byte 15,89,5,185,97,1,0 // mulps 0x161b9(%rip),%xmm0 # 33cb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
- .byte 15,89,13,194,97,1,0 // mulps 0x161c2(%rip),%xmm1 # 33cc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
+ .byte 15,88,5,112,198,0,0 // addps 0xc670(%rip),%xmm0 # 2a160 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 15,89,5,121,198,0,0 // mulps 0xc679(%rip),%xmm0 # 2a170 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 15,89,13,130,198,0,0 // mulps 0xc682(%rip),%xmm1 # 2a180 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,200,97,1,0 // mulps 0x161c8(%rip),%xmm2 # 33cd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1254>
+ .byte 15,89,21,136,198,0,0 // mulps 0xc688(%rip),%xmm2 # 2a190 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,189,97,1,0 // movaps 0x161bd(%rip),%xmm2 # 33ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x1264>
+ .byte 15,40,21,125,198,0,0 // movaps 0xc67d(%rip),%xmm2 # 2a1a0 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,188,97,1,0 // movaps 0x161bc(%rip),%xmm10 # 33cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1274>
+ .byte 68,15,40,21,124,198,0,0 // movaps 0xc67c(%rip),%xmm10 # 2a1b0 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,192,97,1,0 // movaps 0x161c0(%rip),%xmm11 # 33d00 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
+ .byte 68,15,40,29,128,198,0,0 // movaps 0xc680(%rip),%xmm11 # 2a1c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -38612,8 +38612,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,112,97,1,0 // mulps 0x16170(%rip),%xmm8 # 33d10 <_sk_srcover_rgba_8888_sse2_lowp+0x1294>
- .byte 15,89,21,121,97,1,0 // mulps 0x16179(%rip),%xmm2 # 33d20 <_sk_srcover_rgba_8888_sse2_lowp+0x12a4>
+ .byte 68,15,89,5,48,198,0,0 // mulps 0xc630(%rip),%xmm8 # 2a1d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
+ .byte 15,89,21,57,198,0,0 // mulps 0xc639(%rip),%xmm2 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -38633,9 +38633,9 @@ _sk_load_a8_sse2:
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,3,94,1,0 // pand 0x15e03(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,219,5,195,194,0,0 // pand 0xc2c3(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,73,95,1,0 // mulps 0x15f49(%rip),%xmm3 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,29,9,196,0,0 // mulps 0xc409(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -38678,9 +38678,9 @@ _sk_load_a8_dst_sse2:
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,111,93,1,0 // pand 0x15d6f(%rip),%xmm4 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,219,37,47,194,0,0 // pand 0xc22f(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,181,94,1,0 // mulps 0x15eb5(%rip),%xmm7 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,61,117,195,0,0 // mulps 0xc375(%rip),%xmm7 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -38746,7 +38746,7 @@ _sk_gather_a8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,197,93,1,0 // mulps 0x15dc5(%rip),%xmm3 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,29,133,194,0,0 // mulps 0xc285(%rip),%xmm3 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -38763,7 +38763,7 @@ _sk_store_a8_sse2:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,123,92,1,0 // movaps 0x15c7b(%rip),%xmm8 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,40,5,59,193,0,0 // movaps 0xc13b(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -38788,7 +38788,7 @@ _sk_store_a8_sse2:
.byte 117,217 // jne 1ddc2 <_sk_store_a8_sse2+0x48>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1)
- .byte 102,68,15,219,5,227,91,1,0 // pand 0x15be3(%rip),%xmm8 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,219,5,163,192,0,0 // pand 0xc0a3(%rip),%xmm8 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
@@ -38813,11 +38813,11 @@ _sk_load_g8_sse2:
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,148,91,1,0 // pand 0x15b94(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,219,5,84,192,0,0 // pand 0xc054(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,218,92,1,0 // mulps 0x15cda(%rip),%xmm0 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,5,154,193,0,0 // mulps 0xc19a(%rip),%xmm0 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,209,90,1,0 // movaps 0x15ad1(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,145,191,0,0 // movaps 0xbf91(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -38858,11 +38858,11 @@ _sk_load_g8_dst_sse2:
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,253,90,1,0 // pand 0x15afd(%rip),%xmm4 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,219,37,189,191,0,0 // pand 0xbfbd(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,67,92,1,0 // mulps 0x15c43(%rip),%xmm4 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,37,3,193,0,0 // mulps 0xc103(%rip),%xmm4 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,58,90,1,0 // movaps 0x15a3a(%rip),%xmm7 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,61,250,190,0,0 // movaps 0xbefa(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
@@ -38926,9 +38926,9 @@ _sk_gather_g8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,80,91,1,0 // mulps 0x15b50(%rip),%xmm0 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 15,89,5,16,192,0,0 // mulps 0xc010(%rip),%xmm0 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,71,89,1,0 // movaps 0x15947(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,7,190,0,0 // movaps 0xbe07(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -38948,19 +38948,19 @@ _sk_load_565_sse2:
.byte 117,83 // jne 1e05f <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,34,91,1,0 // movdqa 0x15b22(%rip),%xmm0 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 102,15,111,5,226,191,0,0 // movdqa 0xbfe2(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,36,91,1,0 // mulps 0x15b24(%rip),%xmm0 # 33b50 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 102,15,111,13,44,91,1,0 // movdqa 0x15b2c(%rip),%xmm1 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 15,89,5,228,191,0,0 // mulps 0xbfe4(%rip),%xmm0 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,13,236,191,0,0 // movdqa 0xbfec(%rip),%xmm1 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,46,91,1,0 // mulps 0x15b2e(%rip),%xmm1 # 33b70 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 102,15,219,21,54,91,1,0 // pand 0x15b36(%rip),%xmm2 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 15,89,13,238,191,0,0 // mulps 0xbfee(%rip),%xmm1 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 102,15,219,21,246,191,0,0 // pand 0xbff6(%rip),%xmm2 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,60,91,1,0 // mulps 0x15b3c(%rip),%xmm2 # 33b90 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 15,89,21,252,191,0,0 // mulps 0xbffc(%rip),%xmm2 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,211,88,1,0 // movaps 0x158d3(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,147,189,0,0 // movaps 0xbd93(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
@@ -38997,19 +38997,19 @@ _sk_load_565_dst_sse2:
.byte 117,83 // jne 1e11b <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,102,90,1,0 // movdqa 0x15a66(%rip),%xmm4 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 102,15,111,37,38,191,0,0 // movdqa 0xbf26(%rip),%xmm4 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,104,90,1,0 // mulps 0x15a68(%rip),%xmm4 # 33b50 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 102,15,111,45,112,90,1,0 // movdqa 0x15a70(%rip),%xmm5 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 15,89,37,40,191,0,0 // mulps 0xbf28(%rip),%xmm4 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,45,48,191,0,0 // movdqa 0xbf30(%rip),%xmm5 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,114,90,1,0 // mulps 0x15a72(%rip),%xmm5 # 33b70 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 102,15,219,53,122,90,1,0 // pand 0x15a7a(%rip),%xmm6 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 15,89,45,50,191,0,0 // mulps 0xbf32(%rip),%xmm5 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 102,15,219,53,58,191,0,0 // pand 0xbf3a(%rip),%xmm6 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,128,90,1,0 // mulps 0x15a80(%rip),%xmm6 # 33b90 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 15,89,53,64,191,0,0 // mulps 0xbf40(%rip),%xmm6 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,23,88,1,0 // movaps 0x15817(%rip),%xmm7 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,61,215,188,0,0 // movaps 0xbcd7(%rip),%xmm7 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
@@ -39065,19 +39065,19 @@ _sk_gather_565_sse2:
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,74,89,1,0 // movdqa 0x1594a(%rip),%xmm0 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 102,15,111,5,10,190,0,0 // movdqa 0xbe0a(%rip),%xmm0 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,76,89,1,0 // mulps 0x1594c(%rip),%xmm0 # 33b50 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 102,15,111,13,84,89,1,0 // movdqa 0x15954(%rip),%xmm1 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 15,89,5,12,190,0,0 // mulps 0xbe0c(%rip),%xmm0 # 2a010 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 102,15,111,13,20,190,0,0 // movdqa 0xbe14(%rip),%xmm1 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,86,89,1,0 // mulps 0x15956(%rip),%xmm1 # 33b70 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 102,15,219,21,94,89,1,0 // pand 0x1595e(%rip),%xmm2 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 15,89,13,22,190,0,0 // mulps 0xbe16(%rip),%xmm1 # 2a030 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 102,15,219,21,30,190,0,0 // pand 0xbe1e(%rip),%xmm2 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,100,89,1,0 // mulps 0x15964(%rip),%xmm2 # 33b90 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 15,89,21,36,190,0,0 // mulps 0xbe24(%rip),%xmm2 # 2a050 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,251,86,1,0 // movaps 0x156fb(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,187,187,0,0 // movaps 0xbbbb(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -39091,12 +39091,12 @@ _sk_store_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,235,90,1,0 // movaps 0x15aeb(%rip),%xmm8 # 33d40 <_sk_srcover_rgba_8888_sse2_lowp+0x12c4>
+ .byte 68,15,40,5,171,191,0,0 // movaps 0xbfab(%rip),%xmm8 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,224,90,1,0 // movaps 0x15ae0(%rip),%xmm10 # 33d50 <_sk_srcover_rgba_8888_sse2_lowp+0x12d4>
+ .byte 68,15,40,21,160,191,0,0 // movaps 0xbfa0(%rip),%xmm10 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -39145,21 +39145,21 @@ _sk_load_4444_sse2:
.byte 117,98 // jne 1e373 <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,61,90,1,0 // movdqa 0x15a3d(%rip),%xmm0 # 33d60 <_sk_srcover_rgba_8888_sse2_lowp+0x12e4>
+ .byte 102,15,111,5,253,190,0,0 // movdqa 0xbefd(%rip),%xmm0 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,63,90,1,0 // mulps 0x15a3f(%rip),%xmm0 # 33d70 <_sk_srcover_rgba_8888_sse2_lowp+0x12f4>
- .byte 102,15,111,13,71,90,1,0 // movdqa 0x15a47(%rip),%xmm1 # 33d80 <_sk_srcover_rgba_8888_sse2_lowp+0x1304>
+ .byte 15,89,5,255,190,0,0 // mulps 0xbeff(%rip),%xmm0 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 102,15,111,13,7,191,0,0 // movdqa 0xbf07(%rip),%xmm1 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,73,90,1,0 // mulps 0x15a49(%rip),%xmm1 # 33d90 <_sk_srcover_rgba_8888_sse2_lowp+0x1314>
- .byte 102,15,111,21,81,90,1,0 // movdqa 0x15a51(%rip),%xmm2 # 33da0 <_sk_srcover_rgba_8888_sse2_lowp+0x1324>
+ .byte 15,89,13,9,191,0,0 // mulps 0xbf09(%rip),%xmm1 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 102,15,111,21,17,191,0,0 // movdqa 0xbf11(%rip),%xmm2 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,83,90,1,0 // mulps 0x15a53(%rip),%xmm2 # 33db0 <_sk_srcover_rgba_8888_sse2_lowp+0x1334>
- .byte 102,15,219,29,91,90,1,0 // pand 0x15a5b(%rip),%xmm3 # 33dc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1344>
+ .byte 15,89,21,19,191,0,0 // mulps 0xbf13(%rip),%xmm2 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 102,15,219,29,27,191,0,0 // pand 0xbf1b(%rip),%xmm3 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,97,90,1,0 // mulps 0x15a61(%rip),%xmm3 # 33dd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1354>
+ .byte 15,89,29,33,191,0,0 // mulps 0xbf21(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -39197,21 +39197,21 @@ _sk_load_4444_dst_sse2:
.byte 117,98 // jne 1e43e <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,114,89,1,0 // movdqa 0x15972(%rip),%xmm4 # 33d60 <_sk_srcover_rgba_8888_sse2_lowp+0x12e4>
+ .byte 102,15,111,37,50,190,0,0 // movdqa 0xbe32(%rip),%xmm4 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,116,89,1,0 // mulps 0x15974(%rip),%xmm4 # 33d70 <_sk_srcover_rgba_8888_sse2_lowp+0x12f4>
- .byte 102,15,111,45,124,89,1,0 // movdqa 0x1597c(%rip),%xmm5 # 33d80 <_sk_srcover_rgba_8888_sse2_lowp+0x1304>
+ .byte 15,89,37,52,190,0,0 // mulps 0xbe34(%rip),%xmm4 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 102,15,111,45,60,190,0,0 // movdqa 0xbe3c(%rip),%xmm5 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,126,89,1,0 // mulps 0x1597e(%rip),%xmm5 # 33d90 <_sk_srcover_rgba_8888_sse2_lowp+0x1314>
- .byte 102,15,111,53,134,89,1,0 // movdqa 0x15986(%rip),%xmm6 # 33da0 <_sk_srcover_rgba_8888_sse2_lowp+0x1324>
+ .byte 15,89,45,62,190,0,0 // mulps 0xbe3e(%rip),%xmm5 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 102,15,111,53,70,190,0,0 // movdqa 0xbe46(%rip),%xmm6 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,136,89,1,0 // mulps 0x15988(%rip),%xmm6 # 33db0 <_sk_srcover_rgba_8888_sse2_lowp+0x1334>
- .byte 102,15,219,61,144,89,1,0 // pand 0x15990(%rip),%xmm7 # 33dc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1344>
+ .byte 15,89,53,72,190,0,0 // mulps 0xbe48(%rip),%xmm6 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 102,15,219,61,80,190,0,0 // pand 0xbe50(%rip),%xmm7 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,150,89,1,0 // mulps 0x15996(%rip),%xmm7 # 33dd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1354>
+ .byte 15,89,61,86,190,0,0 // mulps 0xbe56(%rip),%xmm7 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -39268,21 +39268,21 @@ _sk_gather_4444_sse2:
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,71,88,1,0 // movdqa 0x15847(%rip),%xmm0 # 33d60 <_sk_srcover_rgba_8888_sse2_lowp+0x12e4>
+ .byte 102,15,111,5,7,189,0,0 // movdqa 0xbd07(%rip),%xmm0 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,73,88,1,0 // mulps 0x15849(%rip),%xmm0 # 33d70 <_sk_srcover_rgba_8888_sse2_lowp+0x12f4>
- .byte 102,15,111,13,81,88,1,0 // movdqa 0x15851(%rip),%xmm1 # 33d80 <_sk_srcover_rgba_8888_sse2_lowp+0x1304>
+ .byte 15,89,5,9,189,0,0 // mulps 0xbd09(%rip),%xmm0 # 2a230 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 102,15,111,13,17,189,0,0 // movdqa 0xbd11(%rip),%xmm1 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,83,88,1,0 // mulps 0x15853(%rip),%xmm1 # 33d90 <_sk_srcover_rgba_8888_sse2_lowp+0x1314>
- .byte 102,15,111,21,91,88,1,0 // movdqa 0x1585b(%rip),%xmm2 # 33da0 <_sk_srcover_rgba_8888_sse2_lowp+0x1324>
+ .byte 15,89,13,19,189,0,0 // mulps 0xbd13(%rip),%xmm1 # 2a250 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 102,15,111,21,27,189,0,0 // movdqa 0xbd1b(%rip),%xmm2 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,93,88,1,0 // mulps 0x1585d(%rip),%xmm2 # 33db0 <_sk_srcover_rgba_8888_sse2_lowp+0x1334>
- .byte 102,15,219,29,101,88,1,0 // pand 0x15865(%rip),%xmm3 # 33dc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1344>
+ .byte 15,89,21,29,189,0,0 // mulps 0xbd1d(%rip),%xmm2 # 2a270 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 102,15,219,29,37,189,0,0 // pand 0xbd25(%rip),%xmm3 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,107,88,1,0 // mulps 0x1586b(%rip),%xmm3 # 33dd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1354>
+ .byte 15,89,29,43,189,0,0 // mulps 0xbd2b(%rip),%xmm3 # 2a290 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39297,7 +39297,7 @@ _sk_store_4444_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,89,88,1,0 // movaps 0x15859(%rip),%xmm8 # 33de0 <_sk_srcover_rgba_8888_sse2_lowp+0x1364>
+ .byte 68,15,40,5,25,189,0,0 // movaps 0xbd19(%rip),%xmm8 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39355,11 +39355,11 @@ _sk_load_8888_sse2:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,98 // jne 1e6ba <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,21,122,83,1,0 // movdqa 0x1537a(%rip),%xmm2 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,21,58,184,0,0 // movdqa 0xb83a(%rip),%xmm2 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,182,84,1,0 // movaps 0x154b6(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,118,185,0,0 // movaps 0xb976(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39406,11 +39406,11 @@ _sk_load_8888_dst_sse2:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,98 // jne 1e779 <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,53,187,82,1,0 // movdqa 0x152bb(%rip),%xmm6 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,53,123,183,0,0 // movdqa 0xb77b(%rip),%xmm6 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,247,83,1,0 // movaps 0x153f7(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,183,184,0,0 // movaps 0xb8b7(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39474,11 +39474,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,165,81,1,0 // movdqa 0x151a5(%rip),%xmm2 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,21,101,182,0,0 // movdqa 0xb665(%rip),%xmm2 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,225,82,1,0 // movaps 0x152e1(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,161,183,0,0 // movaps 0xb7a1(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39507,7 +39507,7 @@ _sk_store_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,98,81,1,0 // movaps 0x15162(%rip),%xmm8 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,40,5,34,182,0,0 // movaps 0xb622(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39559,11 +39559,11 @@ _sk_load_bgra_sse2:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,98 // jne 1e9c2 <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,5,114,80,1,0 // movdqa 0x15072(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,5,50,181,0,0 // movdqa 0xb532(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,174,81,1,0 // movaps 0x151ae(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,110,182,0,0 // movaps 0xb66e(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39610,11 +39610,11 @@ _sk_load_bgra_dst_sse2:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,98 // jne 1ea81 <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,37,179,79,1,0 // movdqa 0x14fb3(%rip),%xmm4 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,37,115,180,0,0 // movdqa 0xb473(%rip),%xmm4 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,239,80,1,0 // movaps 0x150ef(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,175,181,0,0 // movaps 0xb5af(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39678,11 +39678,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,157,78,1,0 // movdqa 0x14e9d(%rip),%xmm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,15,111,5,93,179,0,0 // movdqa 0xb35d(%rip),%xmm0 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,217,79,1,0 // movaps 0x14fd9(%rip),%xmm8 # 33b30 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,5,153,180,0,0 // movaps 0xb499(%rip),%xmm8 # 29ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39711,7 +39711,7 @@ _sk_store_bgra_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,90,78,1,0 // movaps 0x14e5a(%rip),%xmm8 # 33a10 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,40,5,26,179,0,0 // movaps 0xb31a(%rip),%xmm8 # 29ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39773,18 +39773,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,68,81,1,0 // movdqa 0x15144(%rip),%xmm9 # 33df0 <_sk_srcover_rgba_8888_sse2_lowp+0x1374>
+ .byte 102,68,15,111,13,4,182,0,0 // movdqa 0xb604(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,65,81,1,0 // movdqa 0x15141(%rip),%xmm11 # 33e00 <_sk_srcover_rgba_8888_sse2_lowp+0x1384>
+ .byte 102,68,15,111,29,1,182,0,0 // movdqa 0xb601(%rip),%xmm11 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,68,81,1,0 // movdqa 0x15144(%rip),%xmm3 # 33e10 <_sk_srcover_rgba_8888_sse2_lowp+0x1394>
+ .byte 102,15,111,29,4,182,0,0 // movdqa 0xb604(%rip),%xmm3 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,51,81,1,0 // movdqa 0x15133(%rip),%xmm12 # 33e20 <_sk_srcover_rgba_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,37,243,181,0,0 // movdqa 0xb5f3(%rip),%xmm12 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -39858,18 +39858,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,187,79,1,0 // movdqa 0x14fbb(%rip),%xmm9 # 33df0 <_sk_srcover_rgba_8888_sse2_lowp+0x1374>
+ .byte 102,68,15,111,13,123,180,0,0 // movdqa 0xb47b(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,184,79,1,0 // movdqa 0x14fb8(%rip),%xmm11 # 33e00 <_sk_srcover_rgba_8888_sse2_lowp+0x1384>
+ .byte 102,68,15,111,29,120,180,0,0 // movdqa 0xb478(%rip),%xmm11 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,187,79,1,0 // movdqa 0x14fbb(%rip),%xmm7 # 33e10 <_sk_srcover_rgba_8888_sse2_lowp+0x1394>
+ .byte 102,15,111,61,123,180,0,0 // movdqa 0xb47b(%rip),%xmm7 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,170,79,1,0 // movdqa 0x14faa(%rip),%xmm12 # 33e20 <_sk_srcover_rgba_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,37,106,180,0,0 // movdqa 0xb46a(%rip),%xmm12 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -39958,18 +39958,18 @@ _sk_gather_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,236,77,1,0 // movdqa 0x14dec(%rip),%xmm9 # 33df0 <_sk_srcover_rgba_8888_sse2_lowp+0x1374>
+ .byte 102,68,15,111,13,172,178,0,0 // movdqa 0xb2ac(%rip),%xmm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,233,77,1,0 // movdqa 0x14de9(%rip),%xmm11 # 33e00 <_sk_srcover_rgba_8888_sse2_lowp+0x1384>
+ .byte 102,68,15,111,29,169,178,0,0 // movdqa 0xb2a9(%rip),%xmm11 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,236,77,1,0 // movdqa 0x14dec(%rip),%xmm3 # 33e10 <_sk_srcover_rgba_8888_sse2_lowp+0x1394>
+ .byte 102,15,111,29,172,178,0,0 // movdqa 0xb2ac(%rip),%xmm3 # 2a2d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,219,77,1,0 // movdqa 0x14ddb(%rip),%xmm12 # 33e20 <_sk_srcover_rgba_8888_sse2_lowp+0x13a4>
+ .byte 102,68,15,111,37,155,178,0,0 // movdqa 0xb29b(%rip),%xmm12 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -40012,19 +40012,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,47,77,1,0 // movdqa 0x14d2f(%rip),%xmm11 # 33e30 <_sk_srcover_rgba_8888_sse2_lowp+0x13b4>
+ .byte 102,68,15,111,29,239,177,0,0 // movdqa 0xb1ef(%rip),%xmm11 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,44,77,1,0 // movdqa 0x14d2c(%rip),%xmm10 # 33e40 <_sk_srcover_rgba_8888_sse2_lowp+0x13c4>
+ .byte 102,68,15,111,21,236,177,0,0 // movdqa 0xb1ec(%rip),%xmm10 # 2a300 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,42,77,1,0 // movdqa 0x14d2a(%rip),%xmm7 # 33e50 <_sk_srcover_rgba_8888_sse2_lowp+0x13d4>
- .byte 102,68,15,111,37,209,78,1,0 // movdqa 0x14ed1(%rip),%xmm12 # 34000 <_sk_srcover_rgba_8888_sse2_lowp+0x1584>
+ .byte 102,15,111,61,234,177,0,0 // movdqa 0xb1ea(%rip),%xmm7 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 102,68,15,111,37,145,179,0,0 // movdqa 0xb391(%rip),%xmm12 # 2a4c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,131,73,1,0 // movdqa 0x14983(%rip),%xmm13 # 33ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 102,68,15,111,45,67,174,0,0 // movdqa 0xae43(%rip),%xmm13 # 29f90 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -40131,7 +40131,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,152,72,1,0 // movaps 0x14898(%rip),%xmm8 # 33bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 68,15,40,5,88,173,0,0 // movaps 0xad58(%rip),%xmm8 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40206,7 +40206,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,98,71,1,0 // movaps 0x14762(%rip),%xmm9 # 33bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 68,15,40,13,34,172,0,0 // movaps 0xac22(%rip),%xmm9 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40223,7 +40223,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,137,68,1,0 // movaps 0x14489(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,73,169,0,0 // movaps 0xa949(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -40257,7 +40257,7 @@ _sk_store_u16_be_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,66,73,1,0 // movaps 0x14942(%rip),%xmm10 # 33e70 <_sk_srcover_rgba_8888_sse2_lowp+0x13f4>
+ .byte 68,15,40,21,2,174,0,0 // movaps 0xae02(%rip),%xmm10 # 2a330 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -40496,7 +40496,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,84,21,159,64,1,0 // andps 0x1409f(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,84,21,95,165,0,0 // andps 0xa55f(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
@@ -40522,7 +40522,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,84,21,69,64,1,0 // andps 0x14045(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,84,21,5,165,0,0 // andps 0xa505(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
@@ -40548,13 +40548,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,193 // subps %xmm9,%xmm0
.byte 243,69,15,88,210 // addss %xmm10,%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,89,29,190,61,1,0 // mulss 0x13dbe(%rip),%xmm11 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 243,68,15,89,29,158,162,0,0 // mulss 0xa29e(%rip),%xmm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
.byte 243,69,15,91,195 // cvttps2dq %xmm11,%xmm8
.byte 69,15,91,224 // cvtdq2ps %xmm8,%xmm12
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,84,29,203,63,1,0 // andps 0x13fcb(%rip),%xmm11 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,84,29,139,164,0,0 // andps 0xa48b(%rip),%xmm11 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,227 // subps %xmm11,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
@@ -40583,13 +40583,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,201 // subps %xmm9,%xmm1
.byte 243,69,15,88,210 // addss %xmm10,%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,89,29,57,61,1,0 // mulss 0x13d39(%rip),%xmm11 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 243,68,15,89,29,25,162,0,0 // mulss 0xa219(%rip),%xmm11 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
.byte 243,69,15,91,195 // cvttps2dq %xmm11,%xmm8
.byte 69,15,91,224 // cvtdq2ps %xmm8,%xmm12
.byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,84,29,70,63,1,0 // andps 0x13f46(%rip),%xmm11 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,84,29,6,164,0,0 // andps 0xa406(%rip),%xmm11 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,227 // subps %xmm11,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
@@ -40612,7 +40612,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,253,62,1,0 // minps 0x13efd(%rip),%xmm8 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,93,5,189,163,0,0 // minps 0xa3bd(%rip),%xmm8 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -40625,7 +40625,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,84,13,219,62,1,0 // andps 0x13edb(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,84,13,155,163,0,0 // andps 0xa39b(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40635,14 +40635,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,5,39,63,1,0 // movaps 0x13f27(%rip),%xmm8 # 33990 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 68,15,40,5,231,163,0,0 // movaps 0xa3e7(%rip),%xmm8 # 29e50 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,171,62,1,0 // movaps 0x13eab(%rip),%xmm9 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,13,107,163,0,0 // movaps 0xa36b(%rip),%xmm9 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,161,62,1,0 // andps 0x13ea1(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,84,13,97,163,0,0 // andps 0xa361(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,88,210 // addps %xmm10,%xmm10
@@ -40658,10 +40658,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,199,67,1,0 // mulps 0x143c7(%rip),%xmm0 # 33e80 <_sk_srcover_rgba_8888_sse2_lowp+0x1404>
- .byte 15,89,13,208,67,1,0 // mulps 0x143d0(%rip),%xmm1 # 33e90 <_sk_srcover_rgba_8888_sse2_lowp+0x1414>
+ .byte 15,89,5,135,168,0,0 // mulps 0xa887(%rip),%xmm0 # 2a340 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 15,89,13,144,168,0,0 // mulps 0xa890(%rip),%xmm1 # 2a350 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,214,67,1,0 // mulps 0x143d6(%rip),%xmm3 # 33ea0 <_sk_srcover_rgba_8888_sse2_lowp+0x1424>
+ .byte 15,89,29,150,168,0,0 // mulps 0xa896(%rip),%xmm3 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -41073,15 +41073,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,158,61,1,0 // movaps 0x13d9e(%rip),%xmm0 # 33eb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1434>
+ .byte 15,40,5,94,162,0,0 // movaps 0xa25e(%rip),%xmm0 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,164,61,1,0 // addps 0x13da4(%rip),%xmm0 # 33ec0 <_sk_srcover_rgba_8888_sse2_lowp+0x1444>
+ .byte 15,88,5,100,162,0,0 // addps 0xa264(%rip),%xmm0 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,170,61,1,0 // addps 0x13daa(%rip),%xmm0 # 33ed0 <_sk_srcover_rgba_8888_sse2_lowp+0x1454>
+ .byte 15,88,5,106,162,0,0 // addps 0xa26a(%rip),%xmm0 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,176,61,1,0 // addps 0x13db0(%rip),%xmm0 # 33ee0 <_sk_srcover_rgba_8888_sse2_lowp+0x1464>
+ .byte 15,88,5,112,162,0,0 // addps 0xa270(%rip),%xmm0 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,182,61,1,0 // addps 0x13db6(%rip),%xmm0 # 33ef0 <_sk_srcover_rgba_8888_sse2_lowp+0x1474>
+ .byte 15,88,5,118,162,0,0 // addps 0xa276(%rip),%xmm0 # 2a3b0 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -41247,29 +41247,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,70,59,1,0 // movaps 0x13b46(%rip),%xmm13 # 33f00 <_sk_srcover_rgba_8888_sse2_lowp+0x1484>
+ .byte 68,15,40,45,6,160,0,0 // movaps 0xa006(%rip),%xmm13 # 2a3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,74,59,1,0 // addps 0x13b4a(%rip),%xmm13 # 33f10 <_sk_srcover_rgba_8888_sse2_lowp+0x1494>
+ .byte 68,15,88,45,10,160,0,0 // addps 0xa00a(%rip),%xmm13 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,78,59,1,0 // addps 0x13b4e(%rip),%xmm13 # 33f20 <_sk_srcover_rgba_8888_sse2_lowp+0x14a4>
+ .byte 68,15,88,45,14,160,0,0 // addps 0xa00e(%rip),%xmm13 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,82,59,1,0 // addps 0x13b52(%rip),%xmm13 # 33f30 <_sk_srcover_rgba_8888_sse2_lowp+0x14b4>
+ .byte 68,15,88,45,18,160,0,0 // addps 0xa012(%rip),%xmm13 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,81,59,1,0 // movaps 0x13b51(%rip),%xmm10 # 33f40 <_sk_srcover_rgba_8888_sse2_lowp+0x14c4>
+ .byte 68,15,40,21,17,160,0,0 // movaps 0xa011(%rip),%xmm10 # 2a400 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,20,53,1,0 // movaps 0x13514(%rip),%xmm10 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,21,212,153,0,0 // movaps 0x99d4(%rip),%xmm10 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,3,53,1,0 // movaps 0x13503(%rip),%xmm10 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,195,153,0,0 // movaps 0x99c3(%rip),%xmm10 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -41304,7 +41304,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,186,58,1,0 // mulps 0x13aba(%rip),%xmm9 # 33f50 <_sk_srcover_rgba_8888_sse2_lowp+0x14d4>
+ .byte 68,15,89,13,122,159,0,0 // mulps 0x9f7a(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41312,7 +41312,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,165,58,1,0 // mulps 0x13aa5(%rip),%xmm10 # 33f60 <_sk_srcover_rgba_8888_sse2_lowp+0x14e4>
+ .byte 68,15,89,21,101,159,0,0 // mulps 0x9f65(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -41321,8 +41321,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,77,57,1,0 // xorps 0x1394d(%rip),%xmm9 # 33e30 <_sk_srcover_rgba_8888_sse2_lowp+0x13b4>
- .byte 68,15,89,5,53,52,1,0 // mulps 0x13435(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,87,13,13,158,0,0 // xorps 0x9e0d(%rip),%xmm9 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,89,5,245,152,0,0 // mulps 0x98f5(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -41343,7 +41343,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,28,58,1,0 // mulps 0x13a1c(%rip),%xmm9 # 33f50 <_sk_srcover_rgba_8888_sse2_lowp+0x14d4>
+ .byte 68,15,89,13,220,158,0,0 // mulps 0x9edc(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41351,7 +41351,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,7,58,1,0 // mulps 0x13a07(%rip),%xmm10 # 33f60 <_sk_srcover_rgba_8888_sse2_lowp+0x14e4>
+ .byte 68,15,89,21,199,158,0,0 // mulps 0x9ec7(%rip),%xmm10 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -41360,8 +41360,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,175,56,1,0 // xorps 0x138af(%rip),%xmm9 # 33e30 <_sk_srcover_rgba_8888_sse2_lowp+0x13b4>
- .byte 68,15,89,5,151,51,1,0 // mulps 0x13397(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,87,13,111,157,0,0 // xorps 0x9d6f(%rip),%xmm9 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 68,15,89,5,87,152,0,0 // mulps 0x9857(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -41379,7 +41379,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,143,57,1,0 // mulps 0x1398f(%rip),%xmm9 # 33f50 <_sk_srcover_rgba_8888_sse2_lowp+0x14d4>
+ .byte 68,15,89,13,79,158,0,0 // mulps 0x9e4f(%rip),%xmm9 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -41387,7 +41387,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,75,56,1,0 // xorps 0x1384b(%rip),%xmm0 # 33e30 <_sk_srcover_rgba_8888_sse2_lowp+0x13b4>
+ .byte 15,87,5,11,157,0,0 // xorps 0x9d0b(%rip),%xmm0 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41430,7 +41430,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,209,50,1,0 // movaps 0x132d1(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,5,145,151,0,0 // movaps 0x9791(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -41438,7 +41438,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,188,50,1,0 // movaps 0x132bc(%rip),%xmm12 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,37,124,151,0,0 // movaps 0x977c(%rip),%xmm12 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -41485,8 +41485,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,101,56,1,0 // addps 0x13865(%rip),%xmm0 # 33f70 <_sk_srcover_rgba_8888_sse2_lowp+0x14f4>
- .byte 68,15,40,13,29,50,1,0 // movaps 0x1321d(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,5,37,157,0,0 // addps 0x9d25(%rip),%xmm0 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,13,221,150,0,0 // movaps 0x96dd(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41499,7 +41499,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,236,49,1,0 // addps 0x131ec(%rip),%xmm0 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,88,5,172,150,0,0 // addps 0x96ac(%rip),%xmm0 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41511,8 +41511,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,30,56,1,0 // addps 0x1381e(%rip),%xmm1 # 33f70 <_sk_srcover_rgba_8888_sse2_lowp+0x14f4>
- .byte 68,15,40,13,214,49,1,0 // movaps 0x131d6(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,13,222,156,0,0 // addps 0x9cde(%rip),%xmm1 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,13,150,150,0,0 // movaps 0x9696(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41525,7 +41525,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,164,49,1,0 // addps 0x131a4(%rip),%xmm1 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 15,88,13,100,150,0,0 // addps 0x9664(%rip),%xmm1 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41537,13 +41537,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,231,55,1,0 // addps 0x137e7(%rip),%xmm0 # 33f80 <_sk_srcover_rgba_8888_sse2_lowp+0x1504>
- .byte 68,15,40,13,143,49,1,0 // movaps 0x1318f(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,5,167,156,0,0 // addps 0x9ca7(%rip),%xmm0 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
+ .byte 68,15,40,13,79,150,0,0 // movaps 0x964f(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,219,55,1,0 // mulps 0x137db(%rip),%xmm9 # 33f90 <_sk_srcover_rgba_8888_sse2_lowp+0x1514>
- .byte 68,15,88,13,99,51,1,0 // addps 0x13363(%rip),%xmm9 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,89,13,155,156,0,0 // mulps 0x9c9b(%rip),%xmm9 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,13,35,152,0,0 // addps 0x9823(%rip),%xmm9 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41556,16 +41556,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,146,55,1,0 // addps 0x13792(%rip),%xmm0 # 33f70 <_sk_srcover_rgba_8888_sse2_lowp+0x14f4>
- .byte 68,15,40,13,74,49,1,0 // movaps 0x1314a(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,5,82,156,0,0 // addps 0x9c52(%rip),%xmm0 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,13,10,150,0,0 // movaps 0x960a(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,174,55,1,0 // movaps 0x137ae(%rip),%xmm8 # 33fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1524>
+ .byte 68,15,40,5,110,156,0,0 // movaps 0x9c6e(%rip),%xmm8 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,178,55,1,0 // addps 0x137b2(%rip),%xmm8 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 68,15,88,5,114,156,0,0 // addps 0x9c72(%rip),%xmm8 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,22,49,1,0 // addps 0x13116(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,88,5,214,149,0,0 // addps 0x95d6(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,170,55,1,0 // addps 0x137aa(%rip),%xmm8 # 33fc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1544>
+ .byte 68,15,88,5,106,156,0,0 // addps 0x9c6a(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41575,17 +41575,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,244,48,1,0 // movaps 0x130f4(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,5,180,149,0,0 // movaps 0x95b4(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,96,55,1,0 // movaps 0x13760(%rip),%xmm10 # 33fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1524>
+ .byte 68,15,40,21,32,156,0,0 // movaps 0x9c20(%rip),%xmm10 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,100,55,1,0 // addps 0x13764(%rip),%xmm10 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 68,15,88,21,36,156,0,0 // addps 0x9c24(%rip),%xmm10 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,96,55,1,0 // addps 0x13760(%rip),%xmm10 # 33fc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1544>
+ .byte 68,15,88,21,32,156,0,0 // addps 0x9c20(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41597,11 +41597,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,51,55,1,0 // addps 0x13733(%rip),%xmm0 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 15,88,5,243,155,0,0 // addps 0x9bf3(%rip),%xmm0 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,3,55,1,0 // mulps 0x13703(%rip),%xmm8 # 33f90 <_sk_srcover_rgba_8888_sse2_lowp+0x1514>
- .byte 68,15,88,5,139,50,1,0 // addps 0x1328b(%rip),%xmm8 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,89,5,195,155,0,0 // mulps 0x9bc3(%rip),%xmm8 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,5,75,151,0,0 // addps 0x974b(%rip),%xmm8 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41614,13 +41614,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,201,54,1,0 // addps 0x136c9(%rip),%xmm1 # 33f80 <_sk_srcover_rgba_8888_sse2_lowp+0x1504>
- .byte 68,15,40,13,113,48,1,0 // movaps 0x13071(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,13,137,155,0,0 // addps 0x9b89(%rip),%xmm1 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
+ .byte 68,15,40,13,49,149,0,0 // movaps 0x9531(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,189,54,1,0 // mulps 0x136bd(%rip),%xmm9 # 33f90 <_sk_srcover_rgba_8888_sse2_lowp+0x1514>
- .byte 68,15,88,13,69,50,1,0 // addps 0x13245(%rip),%xmm9 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,89,13,125,155,0,0 // mulps 0x9b7d(%rip),%xmm9 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,13,5,151,0,0 // addps 0x9705(%rip),%xmm9 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41633,16 +41633,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,115,54,1,0 // addps 0x13673(%rip),%xmm1 # 33f70 <_sk_srcover_rgba_8888_sse2_lowp+0x14f4>
- .byte 68,15,40,13,43,48,1,0 // movaps 0x1302b(%rip),%xmm9 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,88,13,51,155,0,0 // addps 0x9b33(%rip),%xmm1 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,13,235,148,0,0 // movaps 0x94eb(%rip),%xmm9 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,143,54,1,0 // movaps 0x1368f(%rip),%xmm8 # 33fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1524>
+ .byte 68,15,40,5,79,155,0,0 // movaps 0x9b4f(%rip),%xmm8 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,147,54,1,0 // addps 0x13693(%rip),%xmm8 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 68,15,88,5,83,155,0,0 // addps 0x9b53(%rip),%xmm8 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,247,47,1,0 // addps 0x12ff7(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,88,5,183,148,0,0 // addps 0x94b7(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,139,54,1,0 // addps 0x1368b(%rip),%xmm8 # 33fc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1544>
+ .byte 68,15,88,5,75,155,0,0 // addps 0x9b4b(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41652,17 +41652,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,213,47,1,0 // movaps 0x12fd5(%rip),%xmm8 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,5,149,148,0,0 // movaps 0x9495(%rip),%xmm8 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,64,54,1,0 // movaps 0x13640(%rip),%xmm10 # 33fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1524>
+ .byte 68,15,40,21,0,155,0,0 // movaps 0x9b00(%rip),%xmm10 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,68,54,1,0 // addps 0x13644(%rip),%xmm10 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 68,15,88,21,4,155,0,0 // addps 0x9b04(%rip),%xmm10 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,64,54,1,0 // addps 0x13640(%rip),%xmm10 # 33fc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1544>
+ .byte 68,15,88,21,0,155,0,0 // addps 0x9b00(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41674,11 +41674,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,18,54,1,0 // addps 0x13612(%rip),%xmm1 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1534>
+ .byte 15,88,13,210,154,0,0 // addps 0x9ad2(%rip),%xmm1 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,226,53,1,0 // mulps 0x135e2(%rip),%xmm8 # 33f90 <_sk_srcover_rgba_8888_sse2_lowp+0x1514>
- .byte 68,15,88,5,106,49,1,0 // addps 0x1316a(%rip),%xmm8 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,89,5,162,154,0,0 // mulps 0x9aa2(%rip),%xmm8 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,5,42,150,0,0 // addps 0x962a(%rip),%xmm8 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41823,7 +41823,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,41,52,1,0 // movdqa 0x13429(%rip),%xmm8 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,68,15,111,5,233,152,0,0 // movdqa 0x98e9(%rip),%xmm8 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -41862,7 +41862,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,240,44,1,0 // movdqa 0x12cf0(%rip),%xmm12 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,37,176,145,0,0 // movdqa 0x91b0(%rip),%xmm12 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -41878,7 +41878,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,21,51,1,0 // movaps 0x13315(%rip),%xmm4 # 33fd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1554>
+ .byte 15,40,37,213,151,0,0 // movaps 0x97d5(%rip),%xmm4 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -41914,7 +41914,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,138,50,1,0 // psubd 0x1328a(%rip),%xmm1 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,13,74,151,0,0 // psubd 0x974a(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42004,7 +42004,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,98,42,1,0 // movdqa 0x12a62(%rip),%xmm13 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,45,34,143,0,0 // movdqa 0x8f22(%rip),%xmm13 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -42101,7 +42101,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,37,47,1,0 // movdqa 0x12f25(%rip),%xmm3 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,29,229,147,0,0 // movdqa 0x93e5(%rip),%xmm3 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -42139,7 +42139,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,245,39,1,0 // movdqa 0x127f5(%rip),%xmm0 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,111,5,181,140,0,0 // movdqa 0x8cb5(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -42220,7 +42220,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,2,45,1,0 // movdqa 0x12d02(%rip),%xmm1 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,13,194,145,0,0 // movdqa 0x91c2(%rip),%xmm1 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -42242,7 +42242,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,167,44,1,0 // psubd 0x12ca7(%rip),%xmm1 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,13,103,145,0,0 // psubd 0x9167(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42257,7 +42257,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,210,37,1,0 // paddd 0x125d2(%rip),%xmm0 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,254,5,146,138,0,0 // paddd 0x8a92(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42294,7 +42294,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,177,43,1,0 // psubd 0x12bb1(%rip),%xmm1 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,13,113,144,0,0 // psubd 0x9071(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42309,7 +42309,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,220,36,1,0 // paddd 0x124dc(%rip),%xmm2 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,254,21,156,137,0,0 // paddd 0x899c(%rip),%xmm2 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -42455,7 +42455,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,244,40,1,0 // movdqa 0x128f4(%rip),%xmm4 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,37,180,141,0,0 // movdqa 0x8db4(%rip),%xmm4 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -42494,7 +42494,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,190,33,1,0 // paddd 0x121be(%rip),%xmm0 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,254,5,126,134,0,0 // paddd 0x867e(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -42509,7 +42509,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,232,39,1,0 // movaps 0x127e8(%rip),%xmm6 # 33fd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1554>
+ .byte 15,40,53,168,140,0,0 // movaps 0x8ca8(%rip),%xmm6 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -42527,7 +42527,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,158,39,1,0 // movdqa 0x1279e(%rip),%xmm1 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,13,94,140,0,0 // movdqa 0x8c5e(%rip),%xmm1 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -42548,7 +42548,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,73,39,1,0 // psubd 0x12749(%rip),%xmm0 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,5,9,140,0,0 // psubd 0x8c09(%rip),%xmm0 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42563,7 +42563,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,113,32,1,0 // paddd 0x12071(%rip),%xmm1 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,254,13,49,133,0,0 // paddd 0x8531(%rip),%xmm1 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42601,7 +42601,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,72,38,1,0 // movdqa 0x12648(%rip),%xmm4 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,37,8,139,0,0 // movdqa 0x8b08(%rip),%xmm4 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -42639,7 +42639,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,20,31,1,0 // movdqa 0x11f14(%rip),%xmm8 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,5,212,131,0,0 // movdqa 0x83d4(%rip),%xmm8 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -42785,7 +42785,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,110,28,1,0 // movdqa 0x11c6e(%rip),%xmm15 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,61,46,129,0,0 // movdqa 0x812e(%rip),%xmm15 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -42868,7 +42868,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,125,33,1,0 // movdqa 0x1217d(%rip),%xmm5 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,45,61,134,0,0 // movdqa 0x863d(%rip),%xmm5 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -42889,7 +42889,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,38,33,1,0 // psubd 0x12126(%rip),%xmm5 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,45,230,133,0,0 // psubd 0x85e6(%rip),%xmm5 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -42921,7 +42921,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,132,32,1,0 // movdqa 0x12084(%rip),%xmm3 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,29,68,133,0,0 // movdqa 0x8544(%rip),%xmm3 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -42942,7 +42942,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,36,32,1,0 // psubd 0x12024(%rip),%xmm5 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,45,228,132,0,0 // psubd 0x84e4(%rip),%xmm5 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -42957,7 +42957,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,78,25,1,0 // movdqa 0x1194e(%rip),%xmm9 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,13,14,126,0,0 // movdqa 0x7e0e(%rip),%xmm9 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43019,7 +43019,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,191,30,1,0 // movdqa 0x11ebf(%rip),%xmm2 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,21,127,131,0,0 // movdqa 0x837f(%rip),%xmm2 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -43212,7 +43212,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,91,27,1,0 // psubd 0x11b5b(%rip),%xmm2 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,21,27,128,0,0 // psubd 0x801b(%rip),%xmm2 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43272,7 +43272,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,58,26,1,0 // movdqa 0x11a3a(%rip),%xmm8 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,68,15,111,5,250,126,0,0 // movdqa 0x7efa(%rip),%xmm8 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -43310,7 +43310,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,8,19,1,0 // movdqa 0x11308(%rip),%xmm8 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,68,15,111,5,200,119,0,0 // movdqa 0x77c8(%rip),%xmm8 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43393,7 +43393,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,20,24,1,0 // movdqa 0x11814(%rip),%xmm4 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1564>
+ .byte 102,15,111,37,212,124,0,0 // movdqa 0x7cd4(%rip),%xmm4 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -43414,7 +43414,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,189,23,1,0 // psubd 0x117bd(%rip),%xmm1 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,13,125,124,0,0 // psubd 0x7c7d(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43429,7 +43429,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,230,16,1,0 // paddd 0x110e6(%rip),%xmm0 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,254,5,166,117,0,0 // paddd 0x75a6(%rip),%xmm0 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -43467,7 +43467,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,197,22,1,0 // psubd 0x116c5(%rip),%xmm1 # 33ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x1574>
+ .byte 102,15,250,13,133,123,0,0 // psubd 0x7b85(%rip),%xmm1 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43482,7 +43482,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,240,15,1,0 // paddd 0x10ff0(%rip),%xmm2 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 102,15,254,21,176,116,0,0 // paddd 0x74b0(%rip),%xmm2 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43541,7 +43541,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,220,14,1,0 // movaps 0x10edc(%rip),%xmm3 # 33930 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 15,40,29,156,115,0,0 // movaps 0x739c(%rip),%xmm3 # 29df0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -43550,9718 +43550,6 @@ _sk_clut_4D_sse2:
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
-HIDDEN _sk_start_pipeline_hsw_8bit
-.globl _sk_start_pipeline_hsw_8bit
-FUNCTION(_sk_start_pipeline_hsw_8bit)
-_sk_start_pipeline_hsw_8bit:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 115,83 // jae 22afa <_sk_start_pipeline_hsw_8bit+0x82>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,16 // lea 0x10(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,35 // ja 22ae0 <_sk_start_pipeline_hsw_8bit+0x68>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,16 // lea 0x10(%r12),%rdx
- .byte 73,131,196,32 // add $0x20,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,225 // jbe 22ac1 <_sk_start_pipeline_hsw_8bit+0x49>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,9 // je 22af1 <_sk_start_pipeline_hsw_8bit+0x79>
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,255,195 // inc %rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,185 // jne 22ab3 <_sk_start_pipeline_hsw_8bit+0x3b>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 197,248,119 // vzeroupper
- .byte 195 // retq
-
-HIDDEN _sk_just_return_hsw_8bit
-.globl _sk_just_return_hsw_8bit
-FUNCTION(_sk_just_return_hsw_8bit)
-_sk_just_return_hsw_8bit:
- .byte 195 // retq
-
-HIDDEN _sk_uniform_color_hsw_8bit
-.globl _sk_uniform_color_hsw_8bit
-FUNCTION(_sk_uniform_color_hsw_8bit)
-_sk_uniform_color_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_hsw_8bit
-.globl _sk_set_rgb_hsw_8bit
-FUNCTION(_sk_set_rgb_hsw_8bit)
-_sk_set_rgb_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,250,16,37,13,12,1,0 // vmovss 0x10c0d(%rip),%xmm4 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 197,218,89,40 // vmulss (%rax),%xmm4,%xmm5
- .byte 196,97,250,44,197 // vcvttss2si %xmm5,%r8
- .byte 197,218,89,104,4 // vmulss 0x4(%rax),%xmm4,%xmm5
- .byte 196,97,250,44,205 // vcvttss2si %xmm5,%r9
- .byte 65,193,225,8 // shl $0x8,%r9d
- .byte 69,9,193 // or %r8d,%r9d
- .byte 197,218,89,96,8 // vmulss 0x8(%rax),%xmm4,%xmm4
- .byte 196,225,250,44,196 // vcvttss2si %xmm4,%rax
- .byte 193,224,16 // shl $0x10,%eax
- .byte 68,9,200 // or %r9d,%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 196,226,125,88,228 // vpbroadcastd %xmm4,%ymm4
- .byte 197,253,111,45,62,6,1,0 // vmovdqa 0x1063e(%rip),%ymm5 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x724>
- .byte 197,245,219,205 // vpand %ymm5,%ymm1,%ymm1
- .byte 197,253,219,197 // vpand %ymm5,%ymm0,%ymm0
- .byte 197,221,235,192 // vpor %ymm0,%ymm4,%ymm0
- .byte 197,221,235,201 // vpor %ymm1,%ymm4,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_hsw_8bit
-.globl _sk_premul_hsw_8bit
-FUNCTION(_sk_premul_hsw_8bit)
-_sk_premul_hsw_8bit:
- .byte 197,253,111,37,66,6,1,0 // vmovdqa 0x10642(%rip),%ymm4 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x744>
- .byte 196,226,125,0,236 // vpshufb %ymm4,%ymm0,%ymm5
- .byte 196,226,117,0,228 // vpshufb %ymm4,%ymm1,%ymm4
- .byte 196,227,125,57,198,1 // vextracti128 $0x1,%ymm0,%xmm6
- .byte 196,98,125,48,206 // vpmovzxbw %xmm6,%ymm9
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,207,1 // vextracti128 $0x1,%ymm1,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 197,125,111,5,48,6,1,0 // vmovdqa 0x10630(%rip),%ymm8 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0x764>
- .byte 196,193,93,235,224 // vpor %ymm8,%ymm4,%ymm4
- .byte 196,193,85,235,232 // vpor %ymm8,%ymm5,%ymm5
- .byte 196,227,125,57,238,1 // vextracti128 $0x1,%ymm5,%xmm6
- .byte 196,98,125,48,198 // vpmovzxbw %xmm6,%ymm8
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,227,125,57,230,1 // vextracti128 $0x1,%ymm4,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 197,221,213,225 // vpmullw %ymm1,%ymm4,%ymm4
- .byte 197,205,213,247 // vpmullw %ymm7,%ymm6,%ymm6
- .byte 197,213,213,232 // vpmullw %ymm0,%ymm5,%ymm5
- .byte 196,65,61,213,193 // vpmullw %ymm9,%ymm8,%ymm8
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 197,213,253,192 // vpaddw %ymm0,%ymm5,%ymm0
- .byte 197,205,253,239 // vpaddw %ymm7,%ymm6,%ymm5
- .byte 197,221,253,201 // vpaddw %ymm1,%ymm4,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,221,113,213,8 // vpsrlw $0x8,%ymm5,%ymm4
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 196,193,85,113,208,8 // vpsrlw $0x8,%ymm8,%ymm5
- .byte 196,227,125,56,245,1 // vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- .byte 196,227,125,70,197,49 // vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,227,117,56,236,1 // vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- .byte 196,227,117,70,204,49 // vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- .byte 197,213,103,201 // vpackuswb %ymm1,%ymm5,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_hsw_8bit
-.globl _sk_swap_rb_hsw_8bit
-FUNCTION(_sk_swap_rb_hsw_8bit)
-_sk_swap_rb_hsw_8bit:
- .byte 197,253,111,37,195,5,1,0 // vmovdqa 0x105c3(%rip),%ymm4 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x784>
- .byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
- .byte 196,226,117,0,204 // vpshufb %ymm4,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_hsw_8bit
-.globl _sk_invert_hsw_8bit
-FUNCTION(_sk_invert_hsw_8bit)
-_sk_invert_hsw_8bit:
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,253,239,196 // vpxor %ymm4,%ymm0,%ymm0
- .byte 197,245,239,204 // vpxor %ymm4,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_8888_hsw_8bit
-.globl _sk_load_8888_hsw_8bit
-FUNCTION(_sk_load_8888_hsw_8bit)
-_sk_load_8888_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,17 // jne 22c88 <_sk_load_8888_hsw_8bit+0x2d>
- .byte 196,129,126,111,4,152 // vmovdqu (%r8,%r11,4),%ymm0
- .byte 196,129,126,111,76,152,32 // vmovdqu 0x20(%r8,%r11,4),%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,228 // ja 22c84 <_sk_load_8888_hsw_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,29,1,0,0 // lea 0x11d(%rip),%r10 # 22dc8 <_sk_load_8888_hsw_8bit+0x16d>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,110,4,152 // vmovd (%r8,%r11,4),%xmm0
- .byte 235,200 // jmp 22c84 <_sk_load_8888_hsw_8bit+0x29>
- .byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,192,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm0
- .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,227,125,2,196,3 // vpblendd $0x3,%ymm4,%ymm0,%ymm0
- .byte 235,159 // jmp 22c84 <_sk_load_8888_hsw_8bit+0x29>
- .byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,192,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm0
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,227,125,56,196,1 // vinserti128 $0x1,%xmm4,%ymm0,%ymm0
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,227,125,56,196,1 // vinserti128 $0x1,%xmm4,%ymm0,%ymm0
- .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
- .byte 196,227,93,2,192,240 // vpblendd $0xf0,%ymm0,%ymm4,%ymm0
- .byte 233,80,255,255,255 // jmpq 22c84 <_sk_load_8888_hsw_8bit+0x29>
- .byte 196,129,121,110,68,152,40 // vmovd 0x28(%r8,%r11,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,200,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm1
- .byte 196,131,113,34,68,152,36,1 // vpinsrd $0x1,0x24(%r8,%r11,4),%xmm1,%xmm0
- .byte 196,227,117,2,200,15 // vpblendd $0xf,%ymm0,%ymm1,%ymm1
- .byte 196,129,121,110,68,152,32 // vmovd 0x20(%r8,%r11,4),%xmm0
- .byte 196,227,117,2,200,1 // vpblendd $0x1,%ymm0,%ymm1,%ymm1
- .byte 196,129,126,111,4,152 // vmovdqu (%r8,%r11,4),%ymm0
- .byte 233,20,255,255,255 // jmpq 22c84 <_sk_load_8888_hsw_8bit+0x29>
- .byte 196,129,121,110,68,152,56 // vmovd 0x38(%r8,%r11,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,200,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm1
- .byte 196,227,125,57,200,1 // vextracti128 $0x1,%ymm1,%xmm0
- .byte 196,131,121,34,68,152,52,1 // vpinsrd $0x1,0x34(%r8,%r11,4),%xmm0,%xmm0
- .byte 196,227,117,56,200,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm1
- .byte 196,227,125,57,200,1 // vextracti128 $0x1,%ymm1,%xmm0
- .byte 196,131,121,34,68,152,48,0 // vpinsrd $0x0,0x30(%r8,%r11,4),%xmm0,%xmm0
- .byte 196,227,117,56,200,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm1
- .byte 196,129,126,111,4,152 // vmovdqu (%r8,%r11,4),%ymm0
- .byte 196,129,122,111,100,152,32 // vmovdqu 0x20(%r8,%r11,4),%xmm4
- .byte 196,227,93,2,201,240 // vpblendd $0xf0,%ymm1,%ymm4,%ymm1
- .byte 233,190,254,255,255 // jmpq 22c84 <_sk_load_8888_hsw_8bit+0x29>
- .byte 102,144 // xchg %ax,%ax
- .byte 236 // in (%dx),%al
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,244 // push %rsp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,91,255 // lcall *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,71,255 // incl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,51 // pushq (%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,157 // lcall *-0x62000001(%rip) # ffffffff9e022de4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9dff0368>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,144,255,255,255,130 // callq *-0x7d000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
- .byte 255,230 // jmpq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,168 // mov $0xa8ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_hsw_8bit
-.globl _sk_load_8888_dst_hsw_8bit
-FUNCTION(_sk_load_8888_dst_hsw_8bit)
-_sk_load_8888_dst_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,17 // jne 22e31 <_sk_load_8888_dst_hsw_8bit+0x2d>
- .byte 196,129,126,111,20,152 // vmovdqu (%r8,%r11,4),%ymm2
- .byte 196,129,126,111,92,152,32 // vmovdqu 0x20(%r8,%r11,4),%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,228 // ja 22e2d <_sk_load_8888_dst_hsw_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,28,1,0,0 // lea 0x11c(%rip),%r10 # 22f70 <_sk_load_8888_dst_hsw_8bit+0x16c>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,110,20,152 // vmovd (%r8,%r11,4),%xmm2
- .byte 235,200 // jmp 22e2d <_sk_load_8888_dst_hsw_8bit+0x29>
- .byte 196,129,121,110,84,152,8 // vmovd 0x8(%r8,%r11,4),%xmm2
- .byte 196,226,121,89,210 // vpbroadcastq %xmm2,%xmm2
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,227,101,2,210,4 // vpblendd $0x4,%ymm2,%ymm3,%ymm2
- .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,227,109,2,212,3 // vpblendd $0x3,%ymm4,%ymm2,%ymm2
- .byte 235,159 // jmp 22e2d <_sk_load_8888_dst_hsw_8bit+0x29>
- .byte 196,129,121,110,84,152,24 // vmovd 0x18(%r8,%r11,4),%xmm2
- .byte 196,226,125,89,210 // vpbroadcastq %xmm2,%ymm2
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,227,101,2,210,64 // vpblendd $0x40,%ymm2,%ymm3,%ymm2
- .byte 196,227,125,57,212,1 // vextracti128 $0x1,%ymm2,%xmm4
- .byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,227,109,56,212,1 // vinserti128 $0x1,%xmm4,%ymm2,%ymm2
- .byte 196,227,125,57,212,1 // vextracti128 $0x1,%ymm2,%xmm4
- .byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,227,109,56,212,1 // vinserti128 $0x1,%xmm4,%ymm2,%ymm2
- .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
- .byte 196,227,93,2,210,240 // vpblendd $0xf0,%ymm2,%ymm4,%ymm2
- .byte 233,80,255,255,255 // jmpq 22e2d <_sk_load_8888_dst_hsw_8bit+0x29>
- .byte 196,129,121,110,84,152,40 // vmovd 0x28(%r8,%r11,4),%xmm2
- .byte 196,226,121,89,210 // vpbroadcastq %xmm2,%xmm2
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,227,101,2,218,4 // vpblendd $0x4,%ymm2,%ymm3,%ymm3
- .byte 196,131,97,34,84,152,36,1 // vpinsrd $0x1,0x24(%r8,%r11,4),%xmm3,%xmm2
- .byte 196,227,101,2,218,15 // vpblendd $0xf,%ymm2,%ymm3,%ymm3
- .byte 196,129,121,110,84,152,32 // vmovd 0x20(%r8,%r11,4),%xmm2
- .byte 196,227,101,2,218,1 // vpblendd $0x1,%ymm2,%ymm3,%ymm3
- .byte 196,129,126,111,20,152 // vmovdqu (%r8,%r11,4),%ymm2
- .byte 233,20,255,255,255 // jmpq 22e2d <_sk_load_8888_dst_hsw_8bit+0x29>
- .byte 196,129,121,110,84,152,56 // vmovd 0x38(%r8,%r11,4),%xmm2
- .byte 196,226,125,89,210 // vpbroadcastq %xmm2,%ymm2
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,227,101,2,218,64 // vpblendd $0x40,%ymm2,%ymm3,%ymm3
- .byte 196,227,125,57,218,1 // vextracti128 $0x1,%ymm3,%xmm2
- .byte 196,131,105,34,84,152,52,1 // vpinsrd $0x1,0x34(%r8,%r11,4),%xmm2,%xmm2
- .byte 196,227,101,56,218,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm3
- .byte 196,227,125,57,218,1 // vextracti128 $0x1,%ymm3,%xmm2
- .byte 196,131,105,34,84,152,48,0 // vpinsrd $0x0,0x30(%r8,%r11,4),%xmm2,%xmm2
- .byte 196,227,101,56,218,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm3
- .byte 196,129,126,111,20,152 // vmovdqu (%r8,%r11,4),%ymm2
- .byte 196,129,122,111,100,152,32 // vmovdqu 0x20(%r8,%r11,4),%xmm4
- .byte 196,227,93,2,219,240 // vpblendd $0xf0,%ymm3,%ymm4,%ymm3
- .byte 233,190,254,255,255 // jmpq 22e2d <_sk_load_8888_dst_hsw_8bit+0x29>
- .byte 144 // nop
- .byte 237 // in (%dx),%eax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,11 // decl (%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,245 // push %rbp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255,72,255 // decl -0x1(%rax)
- .byte 255 // (bad)
- .byte 255,52,255 // pushq (%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,158,255,255,255,145 // lcall *-0x6e000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,131,255,255,255,109 // incl 0x6dffffff(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,169 // mov $0xa9ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_8888_hsw_8bit
-.globl _sk_store_8888_hsw_8bit
-FUNCTION(_sk_store_8888_hsw_8bit)
-_sk_store_8888_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,17 // jne 22fd9 <_sk_store_8888_hsw_8bit+0x2d>
- .byte 196,129,126,127,4,152 // vmovdqu %ymm0,(%r8,%r11,4)
- .byte 196,129,126,127,76,152,32 // vmovdqu %ymm1,0x20(%r8,%r11,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,236 // ja 22fd5 <_sk_store_8888_hsw_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,176,0,0,0 // lea 0xb0(%rip),%r10 # 230a4 <_sk_store_8888_hsw_8bit+0xf8>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,126,4,152 // vmovd %xmm0,(%r8,%r11,4)
- .byte 235,208 // jmp 22fd5 <_sk_store_8888_hsw_8bit+0x29>
- .byte 196,131,121,22,68,152,8,2 // vpextrd $0x2,%xmm0,0x8(%r8,%r11,4)
- .byte 196,129,121,214,4,152 // vmovq %xmm0,(%r8,%r11,4)
- .byte 235,192 // jmp 22fd5 <_sk_store_8888_hsw_8bit+0x29>
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,131,121,22,100,152,24,2 // vpextrd $0x2,%xmm4,0x18(%r8,%r11,4)
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,131,121,22,100,152,20,1 // vpextrd $0x1,%xmm4,0x14(%r8,%r11,4)
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,129,121,126,100,152,16 // vmovd %xmm4,0x10(%r8,%r11,4)
- .byte 196,129,122,127,4,152 // vmovdqu %xmm0,(%r8,%r11,4)
- .byte 235,143 // jmp 22fd5 <_sk_store_8888_hsw_8bit+0x29>
- .byte 196,131,121,22,76,152,40,2 // vpextrd $0x2,%xmm1,0x28(%r8,%r11,4)
- .byte 196,131,121,22,76,152,36,1 // vpextrd $0x1,%xmm1,0x24(%r8,%r11,4)
- .byte 196,129,121,126,76,152,32 // vmovd %xmm1,0x20(%r8,%r11,4)
- .byte 196,129,126,127,4,152 // vmovdqu %ymm0,(%r8,%r11,4)
- .byte 233,109,255,255,255 // jmpq 22fd5 <_sk_store_8888_hsw_8bit+0x29>
- .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4
- .byte 196,131,121,22,100,152,56,2 // vpextrd $0x2,%xmm4,0x38(%r8,%r11,4)
- .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4
- .byte 196,131,121,22,100,152,52,1 // vpextrd $0x1,%xmm4,0x34(%r8,%r11,4)
- .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4
- .byte 196,129,121,126,100,152,48 // vmovd %xmm4,0x30(%r8,%r11,4)
- .byte 196,129,126,127,4,152 // vmovdqu %ymm0,(%r8,%r11,4)
- .byte 196,129,122,127,76,152,32 // vmovdqu %xmm1,0x20(%r8,%r11,4)
- .byte 233,50,255,255,255 // jmpq 22fd5 <_sk_store_8888_hsw_8bit+0x29>
- .byte 144 // nop
- .byte 89 // pop %rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,105,255 // ljmp *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,97,255 // jmpq *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,154,255,255,255,141 // lcall *-0x72000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,255 // jg 230b9 <_sk_store_8888_hsw_8bit+0x10d>
- .byte 255 // (bad)
- .byte 255,113,255 // pushq -0x1(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 185,255,255,255,178 // mov $0xb2ffffff,%ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,170,255,255,255,162 // ljmp *-0x5d000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,224 // jmpq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_hsw_8bit
-.globl _sk_load_bgra_hsw_8bit
-FUNCTION(_sk_load_bgra_hsw_8bit)
-_sk_load_bgra_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,35 // jne 2311f <_sk_load_bgra_hsw_8bit+0x3f>
- .byte 196,129,126,111,4,152 // vmovdqu (%r8,%r11,4),%ymm0
- .byte 196,129,126,111,76,152,32 // vmovdqu 0x20(%r8,%r11,4),%ymm1
- .byte 197,253,111,37,15,1,1,0 // vmovdqa 0x1010f(%rip),%ymm4 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x7a4>
- .byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
- .byte 196,226,117,0,204 // vpshufb %ymm4,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,210 // ja 23109 <_sk_load_bgra_hsw_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,30,1,0,0 // lea 0x11e(%rip),%r10 # 23260 <_sk_load_bgra_hsw_8bit+0x180>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,110,4,152 // vmovd (%r8,%r11,4),%xmm0
- .byte 235,182 // jmp 23109 <_sk_load_bgra_hsw_8bit+0x29>
- .byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,192,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm0
- .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,227,125,2,196,3 // vpblendd $0x3,%ymm4,%ymm0,%ymm0
- .byte 235,141 // jmp 23109 <_sk_load_bgra_hsw_8bit+0x29>
- .byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,192,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm0
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,227,125,56,196,1 // vinserti128 $0x1,%xmm4,%ymm0,%ymm0
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,227,125,56,196,1 // vinserti128 $0x1,%xmm4,%ymm0,%ymm0
- .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
- .byte 196,227,93,2,192,240 // vpblendd $0xf0,%ymm0,%ymm4,%ymm0
- .byte 233,62,255,255,255 // jmpq 23109 <_sk_load_bgra_hsw_8bit+0x29>
- .byte 196,129,121,110,68,152,40 // vmovd 0x28(%r8,%r11,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,200,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm1
- .byte 196,131,113,34,68,152,36,1 // vpinsrd $0x1,0x24(%r8,%r11,4),%xmm1,%xmm0
- .byte 196,227,117,2,200,15 // vpblendd $0xf,%ymm0,%ymm1,%ymm1
- .byte 196,129,121,110,68,152,32 // vmovd 0x20(%r8,%r11,4),%xmm0
- .byte 196,227,117,2,200,1 // vpblendd $0x1,%ymm0,%ymm1,%ymm1
- .byte 196,129,126,111,4,152 // vmovdqu (%r8,%r11,4),%ymm0
- .byte 233,2,255,255,255 // jmpq 23109 <_sk_load_bgra_hsw_8bit+0x29>
- .byte 196,129,121,110,68,152,56 // vmovd 0x38(%r8,%r11,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,200,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm1
- .byte 196,227,125,57,200,1 // vextracti128 $0x1,%ymm1,%xmm0
- .byte 196,131,121,34,68,152,52,1 // vpinsrd $0x1,0x34(%r8,%r11,4),%xmm0,%xmm0
- .byte 196,227,117,56,200,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm1
- .byte 196,227,125,57,200,1 // vextracti128 $0x1,%ymm1,%xmm0
- .byte 196,131,121,34,68,152,48,0 // vpinsrd $0x0,0x30(%r8,%r11,4),%xmm0,%xmm0
- .byte 196,227,117,56,200,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm1
- .byte 196,129,126,111,4,152 // vmovdqu (%r8,%r11,4),%ymm0
- .byte 196,129,122,111,100,152,32 // vmovdqu 0x20(%r8,%r11,4),%xmm4
- .byte 196,227,93,2,201,240 // vpblendd $0xf0,%ymm1,%ymm4,%ymm1
- .byte 233,172,254,255,255 // jmpq 23109 <_sk_load_bgra_hsw_8bit+0x29>
- .byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 23260 <_sk_load_bgra_hsw_8bit+0x180>
- .byte 255 // (bad)
- .byte 255,9 // decl (%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,243 // push %rbx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,90,255 // lcall *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,70,255 // incl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,50 // pushq (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,28,255 // lcall *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,156,255,255,255,143,255 // lcall *-0x700001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,129,255,255,255,107 // incl 0x6bffffff(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189,255,255,255,167 // mov $0xa7ffffff,%ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_hsw_8bit
-.globl _sk_load_bgra_dst_hsw_8bit
-FUNCTION(_sk_load_bgra_dst_hsw_8bit)
-_sk_load_bgra_dst_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,35 // jne 232db <_sk_load_bgra_dst_hsw_8bit+0x3f>
- .byte 196,129,126,111,20,152 // vmovdqu (%r8,%r11,4),%ymm2
- .byte 196,129,126,111,92,152,32 // vmovdqu 0x20(%r8,%r11,4),%ymm3
- .byte 197,253,111,37,115,255,0,0 // vmovdqa 0xff73(%rip),%ymm4 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x7c4>
- .byte 196,226,109,0,212 // vpshufb %ymm4,%ymm2,%ymm2
- .byte 196,226,101,0,220 // vpshufb %ymm4,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,210 // ja 232c5 <_sk_load_bgra_dst_hsw_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,30,1,0,0 // lea 0x11e(%rip),%r10 # 2341c <_sk_load_bgra_dst_hsw_8bit+0x180>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,110,20,152 // vmovd (%r8,%r11,4),%xmm2
- .byte 235,182 // jmp 232c5 <_sk_load_bgra_dst_hsw_8bit+0x29>
- .byte 196,129,121,110,84,152,8 // vmovd 0x8(%r8,%r11,4),%xmm2
- .byte 196,226,121,89,210 // vpbroadcastq %xmm2,%xmm2
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,227,101,2,210,4 // vpblendd $0x4,%ymm2,%ymm3,%ymm2
- .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,227,109,2,212,3 // vpblendd $0x3,%ymm4,%ymm2,%ymm2
- .byte 235,141 // jmp 232c5 <_sk_load_bgra_dst_hsw_8bit+0x29>
- .byte 196,129,121,110,84,152,24 // vmovd 0x18(%r8,%r11,4),%xmm2
- .byte 196,226,125,89,210 // vpbroadcastq %xmm2,%ymm2
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,227,101,2,210,64 // vpblendd $0x40,%ymm2,%ymm3,%ymm2
- .byte 196,227,125,57,212,1 // vextracti128 $0x1,%ymm2,%xmm4
- .byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,227,109,56,212,1 // vinserti128 $0x1,%xmm4,%ymm2,%ymm2
- .byte 196,227,125,57,212,1 // vextracti128 $0x1,%ymm2,%xmm4
- .byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
- .byte 196,227,109,56,212,1 // vinserti128 $0x1,%xmm4,%ymm2,%ymm2
- .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
- .byte 196,227,93,2,210,240 // vpblendd $0xf0,%ymm2,%ymm4,%ymm2
- .byte 233,62,255,255,255 // jmpq 232c5 <_sk_load_bgra_dst_hsw_8bit+0x29>
- .byte 196,129,121,110,84,152,40 // vmovd 0x28(%r8,%r11,4),%xmm2
- .byte 196,226,121,89,210 // vpbroadcastq %xmm2,%xmm2
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,227,101,2,218,4 // vpblendd $0x4,%ymm2,%ymm3,%ymm3
- .byte 196,131,97,34,84,152,36,1 // vpinsrd $0x1,0x24(%r8,%r11,4),%xmm3,%xmm2
- .byte 196,227,101,2,218,15 // vpblendd $0xf,%ymm2,%ymm3,%ymm3
- .byte 196,129,121,110,84,152,32 // vmovd 0x20(%r8,%r11,4),%xmm2
- .byte 196,227,101,2,218,1 // vpblendd $0x1,%ymm2,%ymm3,%ymm3
- .byte 196,129,126,111,20,152 // vmovdqu (%r8,%r11,4),%ymm2
- .byte 233,2,255,255,255 // jmpq 232c5 <_sk_load_bgra_dst_hsw_8bit+0x29>
- .byte 196,129,121,110,84,152,56 // vmovd 0x38(%r8,%r11,4),%xmm2
- .byte 196,226,125,89,210 // vpbroadcastq %xmm2,%ymm2
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,227,101,2,218,64 // vpblendd $0x40,%ymm2,%ymm3,%ymm3
- .byte 196,227,125,57,218,1 // vextracti128 $0x1,%ymm3,%xmm2
- .byte 196,131,105,34,84,152,52,1 // vpinsrd $0x1,0x34(%r8,%r11,4),%xmm2,%xmm2
- .byte 196,227,101,56,218,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm3
- .byte 196,227,125,57,218,1 // vextracti128 $0x1,%ymm3,%xmm2
- .byte 196,131,105,34,84,152,48,0 // vpinsrd $0x0,0x30(%r8,%r11,4),%xmm2,%xmm2
- .byte 196,227,101,56,218,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm3
- .byte 196,129,126,111,20,152 // vmovdqu (%r8,%r11,4),%ymm2
- .byte 196,129,122,111,100,152,32 // vmovdqu 0x20(%r8,%r11,4),%xmm4
- .byte 196,227,93,2,219,240 // vpblendd $0xf0,%ymm3,%ymm4,%ymm3
- .byte 233,172,254,255,255 // jmpq 232c5 <_sk_load_bgra_dst_hsw_8bit+0x29>
- .byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 2341c <_sk_load_bgra_dst_hsw_8bit+0x180>
- .byte 255 // (bad)
- .byte 255,9 // decl (%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,243 // push %rbx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,90,255 // lcall *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,70,255 // incl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,50 // pushq (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,28,255 // lcall *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,156,255,255,255,143,255 // lcall *-0x700001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,129,255,255,255,107 // incl 0x6bffffff(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189,255,255,255,167 // mov $0xa7ffffff,%ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_bgra_hsw_8bit
-.globl _sk_store_bgra_hsw_8bit
-FUNCTION(_sk_store_bgra_hsw_8bit)
-_sk_store_bgra_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 197,253,111,37,233,253,0,0 // vmovdqa 0xfde9(%rip),%ymm4 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x7e4>
- .byte 196,226,117,0,236 // vpshufb %ymm4,%ymm1,%ymm5
- .byte 196,226,125,0,228 // vpshufb %ymm4,%ymm0,%ymm4
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,17 // jne 23497 <_sk_store_bgra_hsw_8bit+0x3f>
- .byte 196,129,126,127,36,152 // vmovdqu %ymm4,(%r8,%r11,4)
- .byte 196,129,126,127,108,152,32 // vmovdqu %ymm5,0x20(%r8,%r11,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,236 // ja 23493 <_sk_store_bgra_hsw_8bit+0x3b>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,178,0,0,0 // lea 0xb2(%rip),%r10 # 23564 <_sk_store_bgra_hsw_8bit+0x10c>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,126,36,152 // vmovd %xmm4,(%r8,%r11,4)
- .byte 235,208 // jmp 23493 <_sk_store_bgra_hsw_8bit+0x3b>
- .byte 196,131,121,22,100,152,8,2 // vpextrd $0x2,%xmm4,0x8(%r8,%r11,4)
- .byte 196,129,121,214,36,152 // vmovq %xmm4,(%r8,%r11,4)
- .byte 235,192 // jmp 23493 <_sk_store_bgra_hsw_8bit+0x3b>
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,131,121,22,108,152,24,2 // vpextrd $0x2,%xmm5,0x18(%r8,%r11,4)
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,131,121,22,108,152,20,1 // vpextrd $0x1,%xmm5,0x14(%r8,%r11,4)
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,129,121,126,108,152,16 // vmovd %xmm5,0x10(%r8,%r11,4)
- .byte 196,129,122,127,36,152 // vmovdqu %xmm4,(%r8,%r11,4)
- .byte 235,143 // jmp 23493 <_sk_store_bgra_hsw_8bit+0x3b>
- .byte 196,131,121,22,108,152,40,2 // vpextrd $0x2,%xmm5,0x28(%r8,%r11,4)
- .byte 196,131,121,22,108,152,36,1 // vpextrd $0x1,%xmm5,0x24(%r8,%r11,4)
- .byte 196,129,121,126,108,152,32 // vmovd %xmm5,0x20(%r8,%r11,4)
- .byte 196,129,126,127,36,152 // vmovdqu %ymm4,(%r8,%r11,4)
- .byte 233,109,255,255,255 // jmpq 23493 <_sk_store_bgra_hsw_8bit+0x3b>
- .byte 196,227,125,57,238,1 // vextracti128 $0x1,%ymm5,%xmm6
- .byte 196,131,121,22,116,152,56,2 // vpextrd $0x2,%xmm6,0x38(%r8,%r11,4)
- .byte 196,227,125,57,238,1 // vextracti128 $0x1,%ymm5,%xmm6
- .byte 196,131,121,22,116,152,52,1 // vpextrd $0x1,%xmm6,0x34(%r8,%r11,4)
- .byte 196,227,125,57,238,1 // vextracti128 $0x1,%ymm5,%xmm6
- .byte 196,129,121,126,116,152,48 // vmovd %xmm6,0x30(%r8,%r11,4)
- .byte 196,129,126,127,36,152 // vmovdqu %ymm4,(%r8,%r11,4)
- .byte 196,129,122,127,108,152,32 // vmovdqu %xmm5,0x20(%r8,%r11,4)
- .byte 233,50,255,255,255 // jmpq 23493 <_sk_store_bgra_hsw_8bit+0x3b>
- .byte 15,31,0 // nopl (%rax)
- .byte 87 // push %rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,103,255 // jmpq *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,95,255 // lcall *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,152,255,255,255,139 // lcall *-0x74000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 125,255 // jge 23579 <_sk_store_bgra_hsw_8bit+0x121>
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,183,255,255,255,176 // pushq -0x4f000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,160 // ljmp *-0x5f000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 235,255 // jmp 23591 <_sk_store_bgra_hsw_8bit+0x139>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_565_hsw_8bit
-.globl _sk_store_565_hsw_8bit
-FUNCTION(_sk_store_565_hsw_8bit)
-_sk_store_565_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 196,226,125,88,37,217,2,1,0 // vpbroadcastd 0x102d9(%rip),%ymm4 # 33898 <_sk_srcover_rgba_8888_sse2_lowp+0xe1c>
- .byte 197,253,219,236 // vpand %ymm4,%ymm0,%ymm5
- .byte 197,245,219,228 // vpand %ymm4,%ymm1,%ymm4
- .byte 197,221,114,244,8 // vpslld $0x8,%ymm4,%ymm4
- .byte 197,213,114,245,8 // vpslld $0x8,%ymm5,%ymm5
- .byte 196,226,125,88,53,194,2,1,0 // vpbroadcastd 0x102c2(%rip),%ymm6 # 3389c <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
- .byte 197,253,219,254 // vpand %ymm6,%ymm0,%ymm7
- .byte 197,245,219,246 // vpand %ymm6,%ymm1,%ymm6
- .byte 197,205,114,214,5 // vpsrld $0x5,%ymm6,%ymm6
- .byte 197,221,235,230 // vpor %ymm6,%ymm4,%ymm4
- .byte 197,205,114,215,5 // vpsrld $0x5,%ymm7,%ymm6
- .byte 197,213,235,238 // vpor %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,163,2,1,0 // vpbroadcastd 0x102a3(%rip),%ymm6 # 338a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
- .byte 197,245,219,254 // vpand %ymm6,%ymm1,%ymm7
- .byte 197,253,219,246 // vpand %ymm6,%ymm0,%ymm6
- .byte 197,205,114,214,19 // vpsrld $0x13,%ymm6,%ymm6
- .byte 197,213,235,238 // vpor %ymm6,%ymm5,%ymm5
- .byte 197,205,114,215,19 // vpsrld $0x13,%ymm7,%ymm6
- .byte 197,221,235,230 // vpor %ymm6,%ymm4,%ymm4
- .byte 197,253,111,53,97,252,0,0 // vmovdqa 0xfc61(%rip),%ymm6 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x804>
- .byte 196,226,85,0,238 // vpshufb %ymm6,%ymm5,%ymm5
- .byte 196,227,253,0,237,232 // vpermq $0xe8,%ymm5,%ymm5
- .byte 196,226,93,0,230 // vpshufb %ymm6,%ymm4,%ymm4
- .byte 196,227,253,0,228,232 // vpermq $0xe8,%ymm4,%ymm4
- .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2364a <_sk_store_565_hsw_8bit+0xaa>
- .byte 196,129,126,127,36,88 // vmovdqu %ymm4,(%r8,%r11,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,236 // ja 23646 <_sk_store_565_hsw_8bit+0xa6>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,179,0,0,0 // lea 0xb3(%rip),%r10 # 23718 <_sk_store_565_hsw_8bit+0x178>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,131,121,21,36,88,0 // vpextrw $0x0,%xmm4,(%r8,%r11,2)
- .byte 235,207 // jmp 23646 <_sk_store_565_hsw_8bit+0xa6>
- .byte 196,131,121,21,100,88,4,2 // vpextrw $0x2,%xmm4,0x4(%r8,%r11,2)
- .byte 196,129,121,126,36,88 // vmovd %xmm4,(%r8,%r11,2)
- .byte 235,191 // jmp 23646 <_sk_store_565_hsw_8bit+0xa6>
- .byte 196,131,121,21,100,88,12,6 // vpextrw $0x6,%xmm4,0xc(%r8,%r11,2)
- .byte 196,131,121,21,100,88,10,5 // vpextrw $0x5,%xmm4,0xa(%r8,%r11,2)
- .byte 196,131,121,21,100,88,8,4 // vpextrw $0x4,%xmm4,0x8(%r8,%r11,2)
- .byte 196,129,121,214,36,88 // vmovq %xmm4,(%r8,%r11,2)
- .byte 235,159 // jmp 23646 <_sk_store_565_hsw_8bit+0xa6>
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,131,121,21,108,88,20,2 // vpextrw $0x2,%xmm5,0x14(%r8,%r11,2)
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,131,121,21,108,88,18,1 // vpextrw $0x1,%xmm5,0x12(%r8,%r11,2)
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,131,121,21,108,88,16,0 // vpextrw $0x0,%xmm5,0x10(%r8,%r11,2)
- .byte 235,55 // jmp 2370a <_sk_store_565_hsw_8bit+0x16a>
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,131,121,21,108,88,28,6 // vpextrw $0x6,%xmm5,0x1c(%r8,%r11,2)
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,131,121,21,108,88,26,5 // vpextrw $0x5,%xmm5,0x1a(%r8,%r11,2)
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,131,121,21,108,88,24,4 // vpextrw $0x4,%xmm5,0x18(%r8,%r11,2)
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,129,121,214,108,88,16 // vmovq %xmm5,0x10(%r8,%r11,2)
- .byte 196,129,122,127,36,88 // vmovdqu %xmm4,(%r8,%r11,2)
- .byte 233,49,255,255,255 // jmpq 23646 <_sk_store_565_hsw_8bit+0xa6>
- .byte 15,31,0 // nopl (%rax)
- .byte 86 // push %rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,103,255 // jmpq *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,95,255 // lcall *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,135,255,255,255,127 // incl 0x7fffffff(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,119,255 // pushq -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,242 // push %rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,171,255,255,255,157 // ljmp *-0x62000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,143,255,255,255,229 // decl -0x1a000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 187 // .byte 0xbb
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_565_dst_hsw_8bit
-.globl _sk_load_565_dst_hsw_8bit
-FUNCTION(_sk_load_565_dst_hsw_8bit)
-_sk_load_565_dst_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,222,0,0,0 // jne 23851 <_sk_load_565_dst_hsw_8bit+0xfd>
- .byte 196,129,126,111,20,88 // vmovdqu (%r8,%r11,2),%ymm2
- .byte 196,227,125,57,211,1 // vextracti128 $0x1,%ymm2,%xmm3
- .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
- .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
- .byte 196,226,125,88,37,238,255,0,0 // vpbroadcastd 0xffee(%rip),%ymm4 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
- .byte 197,237,219,236 // vpand %ymm4,%ymm2,%ymm5
- .byte 197,229,219,228 // vpand %ymm4,%ymm3,%ymm4
- .byte 197,221,114,212,8 // vpsrld $0x8,%ymm4,%ymm4
- .byte 197,213,114,213,8 // vpsrld $0x8,%ymm5,%ymm5
- .byte 196,226,125,88,53,227,255,0,0 // vpbroadcastd 0xffe3(%rip),%ymm6 # 33790 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
- .byte 197,237,219,254 // vpand %ymm6,%ymm2,%ymm7
- .byte 197,229,219,246 // vpand %ymm6,%ymm3,%ymm6
- .byte 197,205,114,246,19 // vpslld $0x13,%ymm6,%ymm6
- .byte 197,221,235,230 // vpor %ymm6,%ymm4,%ymm4
- .byte 197,205,114,247,19 // vpslld $0x13,%ymm7,%ymm6
- .byte 197,213,235,238 // vpor %ymm6,%ymm5,%ymm5
- .byte 197,205,114,212,5 // vpsrld $0x5,%ymm4,%ymm6
- .byte 197,197,114,213,5 // vpsrld $0x5,%ymm5,%ymm7
- .byte 196,98,125,88,5,202,0,1,0 // vpbroadcastd 0x100ca(%rip),%ymm8 # 338a4 <_sk_srcover_rgba_8888_sse2_lowp+0xe28>
- .byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
- .byte 196,193,77,219,240 // vpand %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,155,255,0,0 // vpbroadcastd 0xff9b(%rip),%ymm8 # 33788 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
- .byte 196,65,101,219,200 // vpand %ymm8,%ymm3,%ymm9
- .byte 196,65,109,219,192 // vpand %ymm8,%ymm2,%ymm8
- .byte 196,193,61,114,240,5 // vpslld $0x5,%ymm8,%ymm8
- .byte 196,193,53,114,241,5 // vpslld $0x5,%ymm9,%ymm9
- .byte 196,98,125,88,21,156,0,1,0 // vpbroadcastd 0x1009c(%rip),%ymm10 # 338a8 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- .byte 196,193,101,219,218 // vpand %ymm10,%ymm3,%ymm3
- .byte 196,193,109,219,210 // vpand %ymm10,%ymm2,%ymm2
- .byte 197,237,114,210,1 // vpsrld $0x1,%ymm2,%ymm2
- .byte 196,193,109,235,208 // vpor %ymm8,%ymm2,%ymm2
- .byte 197,229,114,211,1 // vpsrld $0x1,%ymm3,%ymm3
- .byte 196,193,101,235,217 // vpor %ymm9,%ymm3,%ymm3
- .byte 196,98,125,88,5,121,0,1,0 // vpbroadcastd 0x10079(%rip),%ymm8 # 338ac <_sk_srcover_rgba_8888_sse2_lowp+0xe30>
- .byte 197,237,235,213 // vpor %ymm5,%ymm2,%ymm2
- .byte 197,229,235,220 // vpor %ymm4,%ymm3,%ymm3
- .byte 196,193,109,235,208 // vpor %ymm8,%ymm2,%ymm2
- .byte 197,197,235,210 // vpor %ymm2,%ymm7,%ymm2
- .byte 196,193,101,235,216 // vpor %ymm8,%ymm3,%ymm3
- .byte 197,205,235,219 // vpor %ymm3,%ymm6,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 15,135,16,255,255,255 // ja 23779 <_sk_load_565_dst_hsw_8bit+0x25>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,28,1,0,0 // lea 0x11c(%rip),%r10 # 23990 <_sk_load_565_dst_hsw_8bit+0x23c>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 233,238,254,255,255 // jmpq 23779 <_sk_load_565_dst_hsw_8bit+0x25>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,129,105,196,92,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm2,%xmm3
- .byte 196,227,101,56,210,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm2
- .byte 196,129,121,110,28,88 // vmovd (%r8,%r11,2),%xmm3
- .byte 196,227,109,2,211,1 // vpblendd $0x1,%ymm3,%ymm2,%ymm2
- .byte 233,203,254,255,255 // jmpq 23779 <_sk_load_565_dst_hsw_8bit+0x25>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,129,105,196,92,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm2,%xmm3
- .byte 196,227,101,56,210,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm2
- .byte 196,129,105,196,92,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm2,%xmm3
- .byte 196,227,109,2,211,15 // vpblendd $0xf,%ymm3,%ymm2,%ymm2
- .byte 196,129,105,196,92,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm2,%xmm3
- .byte 196,227,109,2,211,15 // vpblendd $0xf,%ymm3,%ymm2,%ymm2
- .byte 196,129,122,126,28,88 // vmovq (%r8,%r11,2),%xmm3
- .byte 196,227,109,2,211,3 // vpblendd $0x3,%ymm3,%ymm2,%ymm2
- .byte 233,140,254,255,255 // jmpq 23779 <_sk_load_565_dst_hsw_8bit+0x25>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,129,105,196,92,88,20,2 // vpinsrw $0x2,0x14(%r8,%r11,2),%xmm2,%xmm3
- .byte 196,227,109,56,211,1 // vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,227,125,57,211,1 // vextracti128 $0x1,%ymm2,%xmm3
- .byte 196,129,97,196,92,88,18,1 // vpinsrw $0x1,0x12(%r8,%r11,2),%xmm3,%xmm3
- .byte 196,227,109,56,211,1 // vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,227,125,57,211,1 // vextracti128 $0x1,%ymm2,%xmm3
- .byte 196,129,97,196,92,88,16,0 // vpinsrw $0x0,0x10(%r8,%r11,2),%xmm3,%xmm3
- .byte 196,227,109,56,211,1 // vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,129,122,111,28,88 // vmovdqu (%r8,%r11,2),%xmm3
- .byte 196,227,101,2,210,240 // vpblendd $0xf0,%ymm2,%ymm3,%ymm2
- .byte 233,65,254,255,255 // jmpq 23779 <_sk_load_565_dst_hsw_8bit+0x25>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,129,105,196,92,88,28,6 // vpinsrw $0x6,0x1c(%r8,%r11,2),%xmm2,%xmm3
- .byte 196,227,109,56,211,1 // vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,227,125,57,211,1 // vextracti128 $0x1,%ymm2,%xmm3
- .byte 196,129,97,196,92,88,26,5 // vpinsrw $0x5,0x1a(%r8,%r11,2),%xmm3,%xmm3
- .byte 196,227,109,56,211,1 // vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,227,125,57,211,1 // vextracti128 $0x1,%ymm2,%xmm3
- .byte 196,129,97,196,92,88,24,4 // vpinsrw $0x4,0x18(%r8,%r11,2),%xmm3,%xmm3
- .byte 196,227,109,56,211,1 // vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,129,122,126,92,88,16 // vmovq 0x10(%r8,%r11,2),%xmm3
- .byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
- .byte 196,227,93,56,219,1 // vinserti128 $0x1,%xmm3,%ymm4,%ymm3
- .byte 196,227,101,2,210,192 // vpblendd $0xc0,%ymm2,%ymm3,%ymm2
- .byte 233,233,253,255,255 // jmpq 23779 <_sk_load_565_dst_hsw_8bit+0x25>
- .byte 237 // in (%dx),%eax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,251 // decl -0x4000001(%rip) # fffffffffc023998 <_sk_srcover_rgba_8888_sse2_lowp+0xfffffffffbff0f1c>
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,76,255,255 // decl -0x1(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 62,255 // ds (bad)
- .byte 255 // (bad)
- .byte 255,48 // pushq (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,151,255,255,255,131 // callq *-0x7c000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,93,255 // lcall *-0x1(%rbp)
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,206 // dec %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186,255,255,255,168 // mov $0xa8ffffff,%edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_hsw_8bit
-.globl _sk_load_a8_hsw_8bit
-FUNCTION(_sk_load_a8_hsw_8bit)
-_sk_load_a8_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,35 // jne 23a07 <_sk_load_a8_hsw_8bit+0x3b>
- .byte 196,129,122,111,4,24 // vmovdqu (%r8,%r11,1),%xmm0
- .byte 197,249,112,200,78 // vpshufd $0x4e,%xmm0,%xmm1
- .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
- .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
- .byte 197,253,114,240,24 // vpslld $0x18,%ymm0,%ymm0
- .byte 197,245,114,241,24 // vpslld $0x18,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,207 // ja 239ea <_sk_load_a8_hsw_8bit+0x1e>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,194,0,0,0 // lea 0xc2(%rip),%r10 # 23ae8 <_sk_load_a8_hsw_8bit+0x11c>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,176 // jmp 239ea <_sk_load_a8_hsw_8bit+0x1e>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,131,121,32,68,24,2,2 // vpinsrb $0x2,0x2(%r8,%r11,1),%xmm0,%xmm0
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,147 // jmp 239ea <_sk_load_a8_hsw_8bit+0x1e>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,131,121,32,68,24,6,6 // vpinsrb $0x6,0x6(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,5,5 // vpinsrb $0x5,0x5(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,4,4 // vpinsrb $0x4,0x4(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,102,255,255,255 // jmpq 239ea <_sk_load_a8_hsw_8bit+0x1e>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,131,121,32,68,24,10,10 // vpinsrb $0xa,0xa(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,9,9 // vpinsrb $0x9,0x9(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,8,8 // vpinsrb $0x8,0x8(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,129,122,126,12,24 // vmovq (%r8,%r11,1),%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,57,255,255,255 // jmpq 239ea <_sk_load_a8_hsw_8bit+0x1e>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,131,121,32,68,24,14,14 // vpinsrb $0xe,0xe(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,13,13 // vpinsrb $0xd,0xd(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,12,12 // vpinsrb $0xc,0xc(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,129,122,126,12,24 // vmovq (%r8,%r11,1),%xmm1
- .byte 196,131,113,34,76,24,8,2 // vpinsrd $0x2,0x8(%r8,%r11,1),%xmm1,%xmm1
- .byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
- .byte 233,4,255,255,255 // jmpq 239ea <_sk_load_a8_hsw_8bit+0x1e>
- .byte 102,144 // xchg %ax,%ax
- .byte 71,255 // rex.RXB (bad)
- .byte 255 // (bad)
- .byte 255,94,255 // lcall *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,82,255 // callq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,139,255,255,255,131 // decl -0x7c000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 23afd <_sk_load_a8_hsw_8bit+0x131>
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,176 // mov $0xb0ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,156 // ljmp *-0x63000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_hsw_8bit
-.globl _sk_load_a8_dst_hsw_8bit
-FUNCTION(_sk_load_a8_dst_hsw_8bit)
-_sk_load_a8_dst_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,35 // jne 23b5f <_sk_load_a8_dst_hsw_8bit+0x3b>
- .byte 196,129,122,111,20,24 // vmovdqu (%r8,%r11,1),%xmm2
- .byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
- .byte 196,226,125,49,219 // vpmovzxbd %xmm3,%ymm3
- .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2
- .byte 197,237,114,242,24 // vpslld $0x18,%ymm2,%ymm2
- .byte 197,229,114,243,24 // vpslld $0x18,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,207 // ja 23b42 <_sk_load_a8_dst_hsw_8bit+0x1e>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,194,0,0,0 // lea 0xc2(%rip),%r10 # 23c40 <_sk_load_a8_dst_hsw_8bit+0x11c>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 235,176 // jmp 23b42 <_sk_load_a8_dst_hsw_8bit+0x1e>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,131,105,32,84,24,2,2 // vpinsrb $0x2,0x2(%r8,%r11,1),%xmm2,%xmm2
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,105,14,211,1 // vpblendw $0x1,%xmm3,%xmm2,%xmm2
- .byte 235,147 // jmp 23b42 <_sk_load_a8_dst_hsw_8bit+0x1e>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,131,105,32,84,24,6,6 // vpinsrb $0x6,0x6(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,5,5 // vpinsrb $0x5,0x5(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,4,4 // vpinsrb $0x4,0x4(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,129,121,110,28,24 // vmovd (%r8,%r11,1),%xmm3
- .byte 196,227,105,2,211,1 // vpblendd $0x1,%xmm3,%xmm2,%xmm2
- .byte 233,102,255,255,255 // jmpq 23b42 <_sk_load_a8_dst_hsw_8bit+0x1e>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,131,105,32,84,24,10,10 // vpinsrb $0xa,0xa(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,9,9 // vpinsrb $0x9,0x9(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,8,8 // vpinsrb $0x8,0x8(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,129,122,126,28,24 // vmovq (%r8,%r11,1),%xmm3
- .byte 196,227,97,2,210,12 // vpblendd $0xc,%xmm2,%xmm3,%xmm2
- .byte 233,57,255,255,255 // jmpq 23b42 <_sk_load_a8_dst_hsw_8bit+0x1e>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,131,105,32,84,24,14,14 // vpinsrb $0xe,0xe(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,13,13 // vpinsrb $0xd,0xd(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,12,12 // vpinsrb $0xc,0xc(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,129,122,126,28,24 // vmovq (%r8,%r11,1),%xmm3
- .byte 196,131,97,34,92,24,8,2 // vpinsrd $0x2,0x8(%r8,%r11,1),%xmm3,%xmm3
- .byte 196,227,97,2,210,8 // vpblendd $0x8,%xmm2,%xmm3,%xmm2
- .byte 233,4,255,255,255 // jmpq 23b42 <_sk_load_a8_dst_hsw_8bit+0x1e>
- .byte 102,144 // xchg %ax,%ax
- .byte 71,255 // rex.RXB (bad)
- .byte 255 // (bad)
- .byte 255,94,255 // lcall *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,82,255 // callq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,139,255,255,255,131 // decl -0x7c000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 23c55 <_sk_load_a8_dst_hsw_8bit+0x131>
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,176 // mov $0xb0ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,156 // ljmp *-0x63000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_a8_hsw_8bit
-.globl _sk_store_a8_hsw_8bit
-FUNCTION(_sk_store_a8_hsw_8bit)
-_sk_store_a8_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 197,253,111,37,9,246,0,0 // vmovdqa 0xf609(%rip),%ymm4 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
- .byte 196,226,117,0,236 // vpshufb %ymm4,%ymm1,%ymm5
- .byte 196,227,253,0,237,232 // vpermq $0xe8,%ymm5,%ymm5
- .byte 197,249,111,53,102,3,1,0 // vmovdqa 0x10366(%rip),%xmm6 # 34010 <_sk_srcover_rgba_8888_sse2_lowp+0x1594>
- .byte 196,226,81,0,238 // vpshufb %xmm6,%xmm5,%xmm5
- .byte 196,226,125,0,228 // vpshufb %ymm4,%ymm0,%ymm4
- .byte 196,227,253,0,228,232 // vpermq $0xe8,%ymm4,%ymm4
- .byte 196,226,89,0,230 // vpshufb %xmm6,%xmm4,%xmm4
- .byte 197,217,108,229 // vpunpcklqdq %xmm5,%xmm4,%xmm4
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 23cd2 <_sk_store_a8_hsw_8bit+0x56>
- .byte 196,129,122,127,36,24 // vmovdqu %xmm4,(%r8,%r11,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,236 // ja 23cce <_sk_store_a8_hsw_8bit+0x52>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 23d78 <_sk_store_a8_hsw_8bit+0xfc>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,131,121,20,36,24,0 // vpextrb $0x0,%xmm4,(%r8,%r11,1)
- .byte 235,207 // jmp 23cce <_sk_store_a8_hsw_8bit+0x52>
- .byte 196,131,121,20,100,24,2,2 // vpextrb $0x2,%xmm4,0x2(%r8,%r11,1)
- .byte 196,131,121,21,36,24,0 // vpextrw $0x0,%xmm4,(%r8,%r11,1)
- .byte 235,190 // jmp 23cce <_sk_store_a8_hsw_8bit+0x52>
- .byte 196,131,121,20,100,24,6,6 // vpextrb $0x6,%xmm4,0x6(%r8,%r11,1)
- .byte 196,131,121,20,100,24,5,5 // vpextrb $0x5,%xmm4,0x5(%r8,%r11,1)
- .byte 196,131,121,20,100,24,4,4 // vpextrb $0x4,%xmm4,0x4(%r8,%r11,1)
- .byte 196,129,121,126,36,24 // vmovd %xmm4,(%r8,%r11,1)
- .byte 235,158 // jmp 23cce <_sk_store_a8_hsw_8bit+0x52>
- .byte 196,131,121,20,100,24,10,10 // vpextrb $0xa,%xmm4,0xa(%r8,%r11,1)
- .byte 196,131,121,20,100,24,9,9 // vpextrb $0x9,%xmm4,0x9(%r8,%r11,1)
- .byte 196,131,121,20,100,24,8,8 // vpextrb $0x8,%xmm4,0x8(%r8,%r11,1)
- .byte 235,32 // jmp 23d6a <_sk_store_a8_hsw_8bit+0xee>
- .byte 196,131,121,20,100,24,14,14 // vpextrb $0xe,%xmm4,0xe(%r8,%r11,1)
- .byte 196,131,121,20,100,24,13,13 // vpextrb $0xd,%xmm4,0xd(%r8,%r11,1)
- .byte 196,131,121,20,100,24,12,12 // vpextrb $0xc,%xmm4,0xc(%r8,%r11,1)
- .byte 196,131,121,22,100,24,8,2 // vpextrd $0x2,%xmm4,0x8(%r8,%r11,1)
- .byte 196,129,121,214,36,24 // vmovq %xmm4,(%r8,%r11,1)
- .byte 233,89,255,255,255 // jmpq 23cce <_sk_store_a8_hsw_8bit+0x52>
- .byte 15,31,0 // nopl (%rax)
- .byte 126,255 // jle 23d79 <_sk_store_a8_hsw_8bit+0xfd>
- .byte 255 // (bad)
- .byte 255,143,255,255,255,135 // decl -0x78000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,176,255,255,255,168 // pushq -0x57000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,160,255,255,255,152 // jmpq *-0x67000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,242 // push %rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,200 // dec %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,234 // mov $0xeaffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_hsw_8bit
-.globl _sk_load_g8_hsw_8bit
-FUNCTION(_sk_load_g8_hsw_8bit)
-_sk_load_g8_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,60 // jne 23e08 <_sk_load_g8_hsw_8bit+0x54>
- .byte 196,129,122,111,4,24 // vmovdqu (%r8,%r11,1),%xmm0
- .byte 196,226,125,49,200 // vpmovzxbd %xmm0,%ymm1
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
- .byte 196,226,125,88,37,198,250,0,0 // vpbroadcastd 0xfac6(%rip),%ymm4 # 338b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
- .byte 196,226,125,64,236 // vpmulld %ymm4,%ymm0,%ymm5
- .byte 196,226,117,64,196 // vpmulld %ymm4,%ymm1,%ymm0
- .byte 197,253,111,13,196,244,0,0 // vmovdqa 0xf4c4(%rip),%ymm1 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
- .byte 197,253,235,193 // vpor %ymm1,%ymm0,%ymm0
- .byte 197,213,235,201 // vpor %ymm1,%ymm5,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,182 // ja 23dd2 <_sk_load_g8_hsw_8bit+0x1e>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,197,0,0,0 // lea 0xc5(%rip),%r10 # 23eec <_sk_load_g8_hsw_8bit+0x138>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,151 // jmp 23dd2 <_sk_load_g8_hsw_8bit+0x1e>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,131,121,32,68,24,2,2 // vpinsrb $0x2,0x2(%r8,%r11,1),%xmm0,%xmm0
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq 23dd2 <_sk_load_g8_hsw_8bit+0x1e>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,131,121,32,68,24,6,6 // vpinsrb $0x6,0x6(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,5,5 // vpinsrb $0x5,0x5(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,4,4 // vpinsrb $0x4,0x4(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,74,255,255,255 // jmpq 23dd2 <_sk_load_g8_hsw_8bit+0x1e>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,131,121,32,68,24,10,10 // vpinsrb $0xa,0xa(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,9,9 // vpinsrb $0x9,0x9(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,8,8 // vpinsrb $0x8,0x8(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,129,122,126,12,24 // vmovq (%r8,%r11,1),%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,29,255,255,255 // jmpq 23dd2 <_sk_load_g8_hsw_8bit+0x1e>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,131,121,32,68,24,14,14 // vpinsrb $0xe,0xe(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,13,13 // vpinsrb $0xd,0xd(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,131,121,32,68,24,12,12 // vpinsrb $0xc,0xc(%r8,%r11,1),%xmm0,%xmm0
- .byte 196,129,122,126,12,24 // vmovq (%r8,%r11,1),%xmm1
- .byte 196,131,113,34,76,24,8,2 // vpinsrd $0x2,0x8(%r8,%r11,1),%xmm1,%xmm1
- .byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
- .byte 233,232,254,255,255 // jmpq 23dd2 <_sk_load_g8_hsw_8bit+0x1e>
- .byte 102,144 // xchg %ax,%ax
- .byte 68,255 // rex.R (bad)
- .byte 255 // (bad)
- .byte 255,91,255 // lcall *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,79,255 // decl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,139,255,255,255,131 // decl -0x7c000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 23f01 <_sk_load_g8_hsw_8bit+0x14d>
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,176 // mov $0xb0ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,156 // ljmp *-0x63000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_hsw_8bit
-.globl _sk_load_g8_dst_hsw_8bit
-FUNCTION(_sk_load_g8_dst_hsw_8bit)
-_sk_load_g8_dst_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,60 // jne 23f7c <_sk_load_g8_dst_hsw_8bit+0x54>
- .byte 196,129,122,111,20,24 // vmovdqu (%r8,%r11,1),%xmm2
- .byte 196,226,125,49,218 // vpmovzxbd %xmm2,%ymm3
- .byte 197,249,112,210,78 // vpshufd $0x4e,%xmm2,%xmm2
- .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2
- .byte 196,226,125,88,37,82,249,0,0 // vpbroadcastd 0xf952(%rip),%ymm4 # 338b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
- .byte 196,226,109,64,236 // vpmulld %ymm4,%ymm2,%ymm5
- .byte 196,226,101,64,212 // vpmulld %ymm4,%ymm3,%ymm2
- .byte 197,253,111,29,112,243,0,0 // vmovdqa 0xf370(%rip),%ymm3 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
- .byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
- .byte 197,213,235,219 // vpor %ymm3,%ymm5,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 119,182 // ja 23f46 <_sk_load_g8_dst_hsw_8bit+0x1e>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,197,0,0,0 // lea 0xc5(%rip),%r10 # 24060 <_sk_load_g8_dst_hsw_8bit+0x138>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 235,151 // jmp 23f46 <_sk_load_g8_dst_hsw_8bit+0x1e>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,131,105,32,84,24,2,2 // vpinsrb $0x2,0x2(%r8,%r11,1),%xmm2,%xmm2
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,227,105,14,211,1 // vpblendw $0x1,%xmm3,%xmm2,%xmm2
- .byte 233,119,255,255,255 // jmpq 23f46 <_sk_load_g8_dst_hsw_8bit+0x1e>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,131,105,32,84,24,6,6 // vpinsrb $0x6,0x6(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,5,5 // vpinsrb $0x5,0x5(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,4,4 // vpinsrb $0x4,0x4(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,129,121,110,28,24 // vmovd (%r8,%r11,1),%xmm3
- .byte 196,227,105,2,211,1 // vpblendd $0x1,%xmm3,%xmm2,%xmm2
- .byte 233,74,255,255,255 // jmpq 23f46 <_sk_load_g8_dst_hsw_8bit+0x1e>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,131,105,32,84,24,10,10 // vpinsrb $0xa,0xa(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,9,9 // vpinsrb $0x9,0x9(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,8,8 // vpinsrb $0x8,0x8(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,129,122,126,28,24 // vmovq (%r8,%r11,1),%xmm3
- .byte 196,227,97,2,210,12 // vpblendd $0xc,%xmm2,%xmm3,%xmm2
- .byte 233,29,255,255,255 // jmpq 23f46 <_sk_load_g8_dst_hsw_8bit+0x1e>
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,131,105,32,84,24,14,14 // vpinsrb $0xe,0xe(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,13,13 // vpinsrb $0xd,0xd(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,131,105,32,84,24,12,12 // vpinsrb $0xc,0xc(%r8,%r11,1),%xmm2,%xmm2
- .byte 196,129,122,126,28,24 // vmovq (%r8,%r11,1),%xmm3
- .byte 196,131,97,34,92,24,8,2 // vpinsrd $0x2,0x8(%r8,%r11,1),%xmm3,%xmm3
- .byte 196,227,97,2,210,8 // vpblendd $0x8,%xmm2,%xmm3,%xmm2
- .byte 233,232,254,255,255 // jmpq 23f46 <_sk_load_g8_dst_hsw_8bit+0x1e>
- .byte 102,144 // xchg %ax,%ax
- .byte 68,255 // rex.R (bad)
- .byte 255 // (bad)
- .byte 255,91,255 // lcall *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,79,255 // decl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,139,255,255,255,131 // decl -0x7c000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 24075 <_sk_load_g8_dst_hsw_8bit+0x14d>
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,176 // mov $0xb0ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,156 // ljmp *-0x63000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_rgba_8888_hsw_8bit
-.globl _sk_srcover_rgba_8888_hsw_8bit
-FUNCTION(_sk_srcover_rgba_8888_hsw_8bit)
-_sk_srcover_rgba_8888_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,200 // imul %r8,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,194 // movslq %edx,%rax
- .byte 77,141,20,129 // lea (%r9,%rax,4),%r10
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,218,0,0,0 // jne 2419a <_sk_srcover_rgba_8888_hsw_8bit+0xfe>
- .byte 196,65,126,111,18 // vmovdqu (%r10),%ymm10
- .byte 196,65,126,111,66,32 // vmovdqu 0x20(%r10),%ymm8
- .byte 197,253,111,53,45,242,0,0 // vmovdqa 0xf22d(%rip),%ymm6 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
- .byte 196,226,117,0,254 // vpshufb %ymm6,%ymm1,%ymm7
- .byte 196,226,125,0,246 // vpshufb %ymm6,%ymm0,%ymm6
- .byte 196,99,125,57,212,1 // vextracti128 $0x1,%ymm10,%xmm4
- .byte 196,98,125,48,228 // vpmovzxbw %xmm4,%ymm12
- .byte 196,66,125,48,202 // vpmovzxbw %xmm10,%ymm9
- .byte 196,99,125,57,197,1 // vextracti128 $0x1,%ymm8,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,66,125,48,216 // vpmovzxbw %xmm8,%ymm11
- .byte 196,227,125,57,244,1 // vextracti128 $0x1,%ymm6,%xmm4
- .byte 196,98,125,48,236 // vpmovzxbw %xmm4,%ymm13
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 197,165,213,255 // vpmullw %ymm7,%ymm11,%ymm7
- .byte 197,213,213,228 // vpmullw %ymm4,%ymm5,%ymm4
- .byte 197,181,213,246 // vpmullw %ymm6,%ymm9,%ymm6
- .byte 196,65,29,213,237 // vpmullw %ymm13,%ymm12,%ymm13
- .byte 196,65,21,253,228 // vpaddw %ymm12,%ymm13,%ymm12
- .byte 196,193,77,253,241 // vpaddw %ymm9,%ymm6,%ymm6
- .byte 197,221,253,229 // vpaddw %ymm5,%ymm4,%ymm4
- .byte 196,193,69,253,235 // vpaddw %ymm11,%ymm7,%ymm5
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 196,193,69,113,212,8 // vpsrlw $0x8,%ymm12,%ymm7
- .byte 196,99,77,56,207,1 // vinserti128 $0x1,%xmm7,%ymm6,%ymm9
- .byte 196,227,77,70,247,49 // vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- .byte 197,181,103,246 // vpackuswb %ymm6,%ymm9,%ymm6
- .byte 196,227,85,56,252,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,227,85,70,228,49 // vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- .byte 197,197,103,228 // vpackuswb %ymm4,%ymm7,%ymm4
- .byte 197,189,248,236 // vpsubb %ymm4,%ymm8,%ymm5
- .byte 197,173,248,230 // vpsubb %ymm6,%ymm10,%ymm4
- .byte 197,221,252,224 // vpaddb %ymm0,%ymm4,%ymm4
- .byte 197,213,252,233 // vpaddb %ymm1,%ymm5,%ymm5
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 241d6 <_sk_srcover_rgba_8888_hsw_8bit+0x13a>
- .byte 196,193,126,127,34 // vmovdqu %ymm4,(%r10)
- .byte 196,193,126,127,106,32 // vmovdqu %ymm5,0x20(%r10)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,248 // mov %edi,%r8d
- .byte 65,128,224,15 // and $0xf,%r8b
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
- .byte 65,254,200 // dec %r8b
- .byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 15,135,19,255,255,255 // ja 240cb <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- .byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,213,1,0,0 // lea 0x1d5(%rip),%r9 # 24398 <_sk_srcover_rgba_8888_hsw_8bit+0x2fc>
- .byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,110,18 // vmovd (%r10),%xmm10
- .byte 233,245,254,255,255 // jmpq 240cb <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- .byte 65,137,248 // mov %edi,%r8d
- .byte 65,128,224,15 // and $0xf,%r8b
- .byte 65,254,200 // dec %r8b
- .byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,176 // ja 24196 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- .byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,227,1,0,0 // lea 0x1e3(%rip),%r8 # 243d4 <_sk_srcover_rgba_8888_hsw_8bit+0x338>
- .byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
- .byte 76,1,192 // add %r8,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,126,34 // vmovd %xmm4,(%r10)
- .byte 235,149 // jmp 24196 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- .byte 196,193,121,110,98,8 // vmovd 0x8(%r10),%xmm4
- .byte 196,226,121,89,236 // vpbroadcastq %xmm4,%xmm5
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 196,99,61,2,213,4 // vpblendd $0x4,%ymm5,%ymm8,%ymm10
- .byte 196,194,121,53,50 // vpmovzxdq (%r10),%xmm6
- .byte 197,249,112,246,232 // vpshufd $0xe8,%xmm6,%xmm6
- .byte 196,99,45,2,214,3 // vpblendd $0x3,%ymm6,%ymm10,%ymm10
- .byte 233,159,254,255,255 // jmpq 240cb <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- .byte 196,193,121,110,98,24 // vmovd 0x18(%r10),%xmm4
- .byte 196,226,125,89,236 // vpbroadcastq %xmm4,%ymm5
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 196,99,61,2,213,64 // vpblendd $0x40,%ymm5,%ymm8,%ymm10
- .byte 196,99,125,57,214,1 // vextracti128 $0x1,%ymm10,%xmm6
- .byte 196,195,73,34,114,20,1 // vpinsrd $0x1,0x14(%r10),%xmm6,%xmm6
- .byte 196,99,45,56,214,1 // vinserti128 $0x1,%xmm6,%ymm10,%ymm10
- .byte 196,99,125,57,214,1 // vextracti128 $0x1,%ymm10,%xmm6
- .byte 196,195,73,34,114,16,0 // vpinsrd $0x0,0x10(%r10),%xmm6,%xmm6
- .byte 196,99,45,56,214,1 // vinserti128 $0x1,%xmm6,%ymm10,%ymm10
- .byte 196,193,122,111,50 // vmovdqu (%r10),%xmm6
- .byte 196,67,77,2,210,240 // vpblendd $0xf0,%ymm10,%ymm6,%ymm10
- .byte 233,83,254,255,255 // jmpq 240cb <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- .byte 196,193,121,110,98,40 // vmovd 0x28(%r10),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,99,85,2,196,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm8
- .byte 196,195,57,34,106,36,1 // vpinsrd $0x1,0x24(%r10),%xmm8,%xmm5
- .byte 196,99,61,2,197,15 // vpblendd $0xf,%ymm5,%ymm8,%ymm8
- .byte 196,193,121,110,106,32 // vmovd 0x20(%r10),%xmm5
- .byte 196,99,61,2,197,1 // vpblendd $0x1,%ymm5,%ymm8,%ymm8
- .byte 196,65,126,111,18 // vmovdqu (%r10),%ymm10
- .byte 233,27,254,255,255 // jmpq 240cb <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- .byte 196,193,121,110,98,56 // vmovd 0x38(%r10),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,99,85,2,196,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm8
- .byte 196,99,125,57,197,1 // vextracti128 $0x1,%ymm8,%xmm5
- .byte 196,195,81,34,106,52,1 // vpinsrd $0x1,0x34(%r10),%xmm5,%xmm5
- .byte 196,99,61,56,197,1 // vinserti128 $0x1,%xmm5,%ymm8,%ymm8
- .byte 196,99,125,57,197,1 // vextracti128 $0x1,%ymm8,%xmm5
- .byte 196,195,81,34,106,48,0 // vpinsrd $0x0,0x30(%r10),%xmm5,%xmm5
- .byte 196,99,61,56,197,1 // vinserti128 $0x1,%xmm5,%ymm8,%ymm8
- .byte 196,65,126,111,18 // vmovdqu (%r10),%ymm10
- .byte 196,193,122,111,114,32 // vmovdqu 0x20(%r10),%xmm6
- .byte 196,67,77,2,192,240 // vpblendd $0xf0,%ymm8,%ymm6,%ymm8
- .byte 233,202,253,255,255 // jmpq 240cb <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- .byte 196,195,121,22,98,8,2 // vpextrd $0x2,%xmm4,0x8(%r10)
- .byte 196,193,121,214,34 // vmovq %xmm4,(%r10)
- .byte 233,132,254,255,255 // jmpq 24196 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,121,22,106,24,2 // vpextrd $0x2,%xmm5,0x18(%r10)
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,121,22,106,20,1 // vpextrd $0x1,%xmm5,0x14(%r10)
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,193,121,126,106,16 // vmovd %xmm5,0x10(%r10)
- .byte 196,193,122,127,34 // vmovdqu %xmm4,(%r10)
- .byte 233,84,254,255,255 // jmpq 24196 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- .byte 196,195,121,22,106,40,2 // vpextrd $0x2,%xmm5,0x28(%r10)
- .byte 196,195,121,22,106,36,1 // vpextrd $0x1,%xmm5,0x24(%r10)
- .byte 196,193,121,126,106,32 // vmovd %xmm5,0x20(%r10)
- .byte 196,193,126,127,34 // vmovdqu %ymm4,(%r10)
- .byte 233,54,254,255,255 // jmpq 24196 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- .byte 196,227,125,57,238,1 // vextracti128 $0x1,%ymm5,%xmm6
- .byte 196,195,121,22,114,56,2 // vpextrd $0x2,%xmm6,0x38(%r10)
- .byte 196,227,125,57,238,1 // vextracti128 $0x1,%ymm5,%xmm6
- .byte 196,195,121,22,114,52,1 // vpextrd $0x1,%xmm6,0x34(%r10)
- .byte 196,227,125,57,238,1 // vextracti128 $0x1,%ymm5,%xmm6
- .byte 196,193,121,126,114,48 // vmovd %xmm6,0x30(%r10)
- .byte 196,193,126,127,34 // vmovdqu %ymm4,(%r10)
- .byte 196,193,122,127,106,32 // vmovdqu %xmm5,0x20(%r10)
- .byte 233,0,254,255,255 // jmpq 24196 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- .byte 102,144 // xchg %ax,%ax
- .byte 52,254 // xor $0xfe,%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,254 // jg 2439c <_sk_srcover_rgba_8888_hsw_8bit+0x300>
- .byte 255 // (bad)
- .byte 255,105,254 // ljmp *-0x2(%rcx)
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189,254,255,255,170 // mov $0xaafffffe,%ebp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,148,254,255,255,14,255 // callq *-0xf10001(%rsi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,2 // incl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,245 // push %rbp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,224 // jmpq *%rax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,83,255 // callq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,64,255 // incl -0x1(%rax)
- .byte 255 // (bad)
- .byte 255,45,255,255,255,24 // ljmp *0x18ffffff(%rip) # 190243d0 <_sk_srcover_rgba_8888_sse2_lowp+0x18ff1954>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,38 // jmpq *(%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,52,255 // pushq (%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,45,255,255,255,100 // ljmp *0x64ffffff(%rip) # 650243e0 <_sk_srcover_rgba_8888_sse2_lowp+0x64ff1964>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,88,255 // lcall *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255,75,255 // decl -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 62,255 // ds (bad)
- .byte 255 // (bad)
- .byte 255,130,255,255,255,124 // incl 0x7cffffff(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,117,255 // pushq -0x1(%rbp)
- .byte 255 // (bad)
- .byte 255,110,255 // ljmp *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,178,255,255,255,166 // pushq -0x59000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,153,255,255,255,140 // lcall *-0x73000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_1_float_hsw_8bit
-.globl _sk_scale_1_float_hsw_8bit
-FUNCTION(_sk_scale_1_float_hsw_8bit)
-_sk_scale_1_float_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,250,16,32 // vmovss (%rax),%xmm4
- .byte 197,218,89,37,22,243,0,0 // vmulss 0xf316(%rip),%xmm4,%xmm4 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 197,250,44,196 // vcvttss2si %xmm4,%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 196,226,125,120,228 // vpbroadcastb %xmm4,%ymm4
- .byte 196,227,125,57,197,1 // vextracti128 $0x1,%ymm0,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,206,1 // vextracti128 $0x1,%ymm1,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 197,221,219,37,205,238,0,0 // vpand 0xeecd(%rip),%ymm4,%ymm4 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
- .byte 197,221,213,249 // vpmullw %ymm1,%ymm4,%ymm7
- .byte 197,93,213,198 // vpmullw %ymm6,%ymm4,%ymm8
- .byte 197,93,213,200 // vpmullw %ymm0,%ymm4,%ymm9
- .byte 197,221,213,229 // vpmullw %ymm5,%ymm4,%ymm4
- .byte 197,221,253,229 // vpaddw %ymm5,%ymm4,%ymm4
- .byte 197,181,253,192 // vpaddw %ymm0,%ymm9,%ymm0
- .byte 197,189,253,238 // vpaddw %ymm6,%ymm8,%ymm5
- .byte 197,197,253,201 // vpaddw %ymm1,%ymm7,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 196,227,125,56,244,1 // vinserti128 $0x1,%xmm4,%ymm0,%ymm6
- .byte 196,227,125,70,196,49 // vperm2i128 $0x31,%ymm4,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,227,117,56,229,1 // vinserti128 $0x1,%xmm5,%ymm1,%ymm4
- .byte 196,227,117,70,205,49 // vperm2i128 $0x31,%ymm5,%ymm1,%ymm1
- .byte 197,221,103,201 // vpackuswb %ymm1,%ymm4,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_hsw_8bit
-.globl _sk_scale_u8_hsw_8bit
-FUNCTION(_sk_scale_u8_hsw_8bit)
-_sk_scale_u8_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,194,0,0,0 // jne 24589 <_sk_scale_u8_hsw_8bit+0xde>
- .byte 196,129,122,111,36,24 // vmovdqu (%r8,%r11,1),%xmm4
- .byte 196,226,125,49,236 // vpmovzxbd %xmm4,%ymm5
- .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
- .byte 196,226,125,49,228 // vpmovzxbd %xmm4,%ymm4
- .byte 197,253,111,53,92,238,0,0 // vmovdqa 0xee5c(%rip),%ymm6 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
- .byte 196,226,93,0,230 // vpshufb %ymm6,%ymm4,%ymm4
- .byte 196,226,85,0,238 // vpshufb %ymm6,%ymm5,%ymm5
- .byte 196,227,125,57,198,1 // vextracti128 $0x1,%ymm0,%xmm6
- .byte 196,98,125,48,198 // vpmovzxbw %xmm6,%ymm8
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,207,1 // vextracti128 $0x1,%ymm1,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 196,227,125,57,238,1 // vextracti128 $0x1,%ymm5,%xmm6
- .byte 196,98,125,48,206 // vpmovzxbw %xmm6,%ymm9
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,227,125,57,230,1 // vextracti128 $0x1,%ymm4,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 197,221,213,225 // vpmullw %ymm1,%ymm4,%ymm4
- .byte 197,205,213,247 // vpmullw %ymm7,%ymm6,%ymm6
- .byte 197,213,213,232 // vpmullw %ymm0,%ymm5,%ymm5
- .byte 196,65,53,213,200 // vpmullw %ymm8,%ymm9,%ymm9
- .byte 196,65,53,253,192 // vpaddw %ymm8,%ymm9,%ymm8
- .byte 197,213,253,192 // vpaddw %ymm0,%ymm5,%ymm0
- .byte 197,205,253,239 // vpaddw %ymm7,%ymm6,%ymm5
- .byte 197,221,253,201 // vpaddw %ymm1,%ymm4,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,221,113,213,8 // vpsrlw $0x8,%ymm5,%ymm4
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 196,193,85,113,208,8 // vpsrlw $0x8,%ymm8,%ymm5
- .byte 196,227,125,56,245,1 // vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- .byte 196,227,125,70,197,49 // vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,227,117,56,236,1 // vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- .byte 196,227,117,70,204,49 // vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- .byte 197,213,103,201 // vpackuswb %ymm1,%ymm5,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 15,135,44,255,255,255 // ja 244cd <_sk_scale_u8_hsw_8bit+0x22>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,200,0,0,0 // lea 0xc8(%rip),%r10 # 24674 <_sk_scale_u8_hsw_8bit+0x1c9>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,10,255,255,255 // jmpq 244cd <_sk_scale_u8_hsw_8bit+0x22>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,131,89,32,100,24,2,2 // vpinsrb $0x2,0x2(%r8,%r11,1),%xmm4,%xmm4
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 197,249,110,232 // vmovd %eax,%xmm5
- .byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,234,254,255,255 // jmpq 244cd <_sk_scale_u8_hsw_8bit+0x22>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,131,89,32,100,24,6,6 // vpinsrb $0x6,0x6(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,5,5 // vpinsrb $0x5,0x5(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,4,4 // vpinsrb $0x4,0x4(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,189,254,255,255 // jmpq 244cd <_sk_scale_u8_hsw_8bit+0x22>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,131,89,32,100,24,10,10 // vpinsrb $0xa,0xa(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,9,9 // vpinsrb $0x9,0x9(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,8,8 // vpinsrb $0x8,0x8(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,129,122,126,44,24 // vmovq (%r8,%r11,1),%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,144,254,255,255 // jmpq 244cd <_sk_scale_u8_hsw_8bit+0x22>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,131,89,32,100,24,14,14 // vpinsrb $0xe,0xe(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,13,13 // vpinsrb $0xd,0xd(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,12,12 // vpinsrb $0xc,0xc(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,129,122,126,44,24 // vmovq (%r8,%r11,1),%xmm5
- .byte 196,131,81,34,108,24,8,2 // vpinsrd $0x2,0x8(%r8,%r11,1),%xmm5,%xmm5
- .byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
- .byte 233,91,254,255,255 // jmpq 244cd <_sk_scale_u8_hsw_8bit+0x22>
- .byte 102,144 // xchg %ax,%ax
- .byte 65,255 // rex.B (bad)
- .byte 255 // (bad)
- .byte 255,91,255 // lcall *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,79,255 // decl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,139,255,255,255,131 // decl -0x7c000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 24689 <_sk_scale_u8_hsw_8bit+0x1de>
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,176 // mov $0xb0ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,156 // ljmp *-0x63000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_1_float_hsw_8bit
-.globl _sk_lerp_1_float_hsw_8bit
-FUNCTION(_sk_lerp_1_float_hsw_8bit)
-_sk_lerp_1_float_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,250,16,32 // vmovss (%rax),%xmm4
- .byte 197,218,89,37,118,240,0,0 // vmulss 0xf076(%rip),%xmm4,%xmm4 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 197,250,44,196 // vcvttss2si %xmm4,%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 196,226,125,120,228 // vpbroadcastb %xmm4,%ymm4
- .byte 196,227,125,57,197,1 // vextracti128 $0x1,%ymm0,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,206,1 // vextracti128 $0x1,%ymm1,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 197,221,219,61,109,236,0,0 // vpand 0xec6d(%rip),%ymm4,%ymm7 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
- .byte 197,69,213,193 // vpmullw %ymm1,%ymm7,%ymm8
- .byte 197,69,213,206 // vpmullw %ymm6,%ymm7,%ymm9
- .byte 197,69,213,208 // vpmullw %ymm0,%ymm7,%ymm10
- .byte 197,197,213,253 // vpmullw %ymm5,%ymm7,%ymm7
- .byte 197,197,253,237 // vpaddw %ymm5,%ymm7,%ymm5
- .byte 197,173,253,192 // vpaddw %ymm0,%ymm10,%ymm0
- .byte 197,181,253,246 // vpaddw %ymm6,%ymm9,%ymm6
- .byte 197,189,253,201 // vpaddw %ymm1,%ymm8,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 196,227,125,56,253,1 // vinserti128 $0x1,%xmm5,%ymm0,%ymm7
- .byte 196,227,125,70,197,49 // vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- .byte 197,197,103,192 // vpackuswb %ymm0,%ymm7,%ymm0
- .byte 196,227,117,56,238,1 // vinserti128 $0x1,%xmm6,%ymm1,%ymm5
- .byte 196,227,117,70,206,49 // vperm2i128 $0x31,%ymm6,%ymm1,%ymm1
- .byte 197,85,103,201 // vpackuswb %ymm1,%ymm5,%ymm9
- .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
- .byte 197,221,239,229 // vpxor %ymm5,%ymm4,%ymm4
- .byte 196,227,125,57,213,1 // vextracti128 $0x1,%ymm2,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,226,125,48,242 // vpmovzxbw %xmm2,%ymm6
- .byte 196,227,125,57,223,1 // vextracti128 $0x1,%ymm3,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,98,125,48,195 // vpmovzxbw %xmm3,%ymm8
- .byte 196,227,125,57,225,1 // vextracti128 $0x1,%ymm4,%xmm1
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,65,93,213,208 // vpmullw %ymm8,%ymm4,%ymm10
- .byte 197,117,213,223 // vpmullw %ymm7,%ymm1,%ymm11
- .byte 197,221,213,230 // vpmullw %ymm6,%ymm4,%ymm4
- .byte 197,245,213,205 // vpmullw %ymm5,%ymm1,%ymm1
- .byte 197,245,253,205 // vpaddw %ymm5,%ymm1,%ymm1
- .byte 197,221,253,230 // vpaddw %ymm6,%ymm4,%ymm4
- .byte 197,165,253,239 // vpaddw %ymm7,%ymm11,%ymm5
- .byte 196,193,45,253,240 // vpaddw %ymm8,%ymm10,%ymm6
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 196,227,93,56,249,1 // vinserti128 $0x1,%xmm1,%ymm4,%ymm7
- .byte 196,227,93,70,201,49 // vperm2i128 $0x31,%ymm1,%ymm4,%ymm1
- .byte 197,197,103,201 // vpackuswb %ymm1,%ymm7,%ymm1
- .byte 197,245,252,192 // vpaddb %ymm0,%ymm1,%ymm0
- .byte 196,227,77,56,205,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm1
- .byte 196,227,77,70,229,49 // vperm2i128 $0x31,%ymm5,%ymm6,%ymm4
- .byte 197,245,103,204 // vpackuswb %ymm4,%ymm1,%ymm1
- .byte 196,193,117,252,201 // vpaddb %ymm9,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_u8_hsw_8bit
-.globl _sk_lerp_u8_hsw_8bit
-FUNCTION(_sk_lerp_u8_hsw_8bit)
-_sk_lerp_u8_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,107,1,0,0 // jne 24969 <_sk_lerp_u8_hsw_8bit+0x187>
- .byte 196,129,122,111,36,24 // vmovdqu (%r8,%r11,1),%xmm4
- .byte 196,226,125,49,236 // vpmovzxbd %xmm4,%ymm5
- .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
- .byte 196,226,125,49,228 // vpmovzxbd %xmm4,%ymm4
- .byte 197,253,111,53,101,235,0,0 // vmovdqa 0xeb65(%rip),%ymm6 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 196,98,93,0,198 // vpshufb %ymm6,%ymm4,%ymm8
- .byte 196,226,85,0,238 // vpshufb %ymm6,%ymm5,%ymm5
- .byte 196,227,125,57,198,1 // vextracti128 $0x1,%ymm0,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,207,1 // vextracti128 $0x1,%ymm1,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 196,227,125,57,236,1 // vextracti128 $0x1,%ymm5,%xmm4
- .byte 196,98,125,48,212 // vpmovzxbw %xmm4,%ymm10
- .byte 196,98,125,48,205 // vpmovzxbw %xmm5,%ymm9
- .byte 196,99,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,66,125,48,216 // vpmovzxbw %xmm8,%ymm11
- .byte 197,37,213,217 // vpmullw %ymm1,%ymm11,%ymm11
- .byte 197,221,213,231 // vpmullw %ymm7,%ymm4,%ymm4
- .byte 197,53,213,200 // vpmullw %ymm0,%ymm9,%ymm9
- .byte 197,45,213,214 // vpmullw %ymm6,%ymm10,%ymm10
- .byte 197,173,253,246 // vpaddw %ymm6,%ymm10,%ymm6
- .byte 197,181,253,192 // vpaddw %ymm0,%ymm9,%ymm0
- .byte 197,221,253,231 // vpaddw %ymm7,%ymm4,%ymm4
- .byte 197,165,253,201 // vpaddw %ymm1,%ymm11,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 196,227,125,56,254,1 // vinserti128 $0x1,%xmm6,%ymm0,%ymm7
- .byte 196,227,125,70,198,49 // vperm2i128 $0x31,%ymm6,%ymm0,%ymm0
- .byte 197,69,103,208 // vpackuswb %ymm0,%ymm7,%ymm10
- .byte 196,227,117,56,244,1 // vinserti128 $0x1,%xmm4,%ymm1,%ymm6
- .byte 196,227,117,70,204,49 // vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- .byte 197,77,103,201 // vpackuswb %ymm1,%ymm6,%ymm9
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,189,239,244 // vpxor %ymm4,%ymm8,%ymm6
- .byte 197,213,239,228 // vpxor %ymm4,%ymm5,%ymm4
- .byte 196,227,125,57,213,1 // vextracti128 $0x1,%ymm2,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,226,125,48,250 // vpmovzxbw %xmm2,%ymm7
- .byte 196,227,125,57,217,1 // vextracti128 $0x1,%ymm3,%xmm1
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 196,98,125,48,195 // vpmovzxbw %xmm3,%ymm8
- .byte 196,227,125,57,224,1 // vextracti128 $0x1,%ymm4,%xmm0
- .byte 196,98,125,48,216 // vpmovzxbw %xmm0,%ymm11
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,227,125,57,240,1 // vextracti128 $0x1,%ymm6,%xmm0
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,193,77,213,240 // vpmullw %ymm8,%ymm6,%ymm6
- .byte 197,253,213,193 // vpmullw %ymm1,%ymm0,%ymm0
- .byte 197,221,213,231 // vpmullw %ymm7,%ymm4,%ymm4
- .byte 197,37,213,221 // vpmullw %ymm5,%ymm11,%ymm11
- .byte 197,165,253,237 // vpaddw %ymm5,%ymm11,%ymm5
- .byte 197,221,253,231 // vpaddw %ymm7,%ymm4,%ymm4
- .byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
- .byte 196,193,77,253,200 // vpaddw %ymm8,%ymm6,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,205,113,208,8 // vpsrlw $0x8,%ymm0,%ymm6
- .byte 197,253,113,212,8 // vpsrlw $0x8,%ymm4,%ymm0
- .byte 197,221,113,213,8 // vpsrlw $0x8,%ymm5,%ymm4
- .byte 196,227,125,56,236,1 // vinserti128 $0x1,%xmm4,%ymm0,%ymm5
- .byte 196,227,125,70,196,49 // vperm2i128 $0x31,%ymm4,%ymm0,%ymm0
- .byte 197,213,103,192 // vpackuswb %ymm0,%ymm5,%ymm0
- .byte 196,193,125,252,194 // vpaddb %ymm10,%ymm0,%ymm0
- .byte 196,227,117,56,230,1 // vinserti128 $0x1,%xmm6,%ymm1,%ymm4
- .byte 196,227,117,70,206,49 // vperm2i128 $0x31,%ymm6,%ymm1,%ymm1
- .byte 197,221,103,201 // vpackuswb %ymm1,%ymm4,%ymm1
- .byte 196,193,117,252,201 // vpaddb %ymm9,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,15 // and $0xf,%r9b
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 15,135,131,254,255,255 // ja 24804 <_sk_lerp_u8_hsw_8bit+0x22>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,200,0,0,0 // lea 0xc8(%rip),%r10 # 24a54 <_sk_lerp_u8_hsw_8bit+0x272>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,97,254,255,255 // jmpq 24804 <_sk_lerp_u8_hsw_8bit+0x22>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,131,89,32,100,24,2,2 // vpinsrb $0x2,0x2(%r8,%r11,1),%xmm4,%xmm4
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 197,249,110,232 // vmovd %eax,%xmm5
- .byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,254,255,255 // jmpq 24804 <_sk_lerp_u8_hsw_8bit+0x22>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,131,89,32,100,24,6,6 // vpinsrb $0x6,0x6(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,5,5 // vpinsrb $0x5,0x5(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,4,4 // vpinsrb $0x4,0x4(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,20,254,255,255 // jmpq 24804 <_sk_lerp_u8_hsw_8bit+0x22>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,131,89,32,100,24,10,10 // vpinsrb $0xa,0xa(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,9,9 // vpinsrb $0x9,0x9(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,8,8 // vpinsrb $0x8,0x8(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,129,122,126,44,24 // vmovq (%r8,%r11,1),%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,231,253,255,255 // jmpq 24804 <_sk_lerp_u8_hsw_8bit+0x22>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,131,89,32,100,24,14,14 // vpinsrb $0xe,0xe(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,13,13 // vpinsrb $0xd,0xd(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,131,89,32,100,24,12,12 // vpinsrb $0xc,0xc(%r8,%r11,1),%xmm4,%xmm4
- .byte 196,129,122,126,44,24 // vmovq (%r8,%r11,1),%xmm5
- .byte 196,131,81,34,108,24,8,2 // vpinsrd $0x2,0x8(%r8,%r11,1),%xmm5,%xmm5
- .byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
- .byte 233,178,253,255,255 // jmpq 24804 <_sk_lerp_u8_hsw_8bit+0x22>
- .byte 102,144 // xchg %ax,%ax
- .byte 65,255 // rex.B (bad)
- .byte 255 // (bad)
- .byte 255,91,255 // lcall *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,79,255 // decl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,139,255,255,255,131 // decl -0x7c000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 24a69 <_sk_lerp_u8_hsw_8bit+0x287>
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,176 // mov $0xb0ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,156 // ljmp *-0x63000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_move_src_dst_hsw_8bit
-.globl _sk_move_src_dst_hsw_8bit
-FUNCTION(_sk_move_src_dst_hsw_8bit)
-_sk_move_src_dst_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,252,40,217 // vmovaps %ymm1,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_hsw_8bit
-.globl _sk_move_dst_src_hsw_8bit
-FUNCTION(_sk_move_dst_src_hsw_8bit)
-_sk_move_dst_src_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,194 // vmovaps %ymm2,%ymm0
- .byte 197,252,40,203 // vmovaps %ymm3,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_hsw_8bit
-.globl _sk_black_color_hsw_8bit
-FUNCTION(_sk_black_color_hsw_8bit)
-_sk_black_color_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,249,237,0,0 // vbroadcastss 0xedf9(%rip),%ymm0 # 338ac <_sk_srcover_rgba_8888_sse2_lowp+0xe30>
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_hsw_8bit
-.globl _sk_white_color_hsw_8bit
-FUNCTION(_sk_white_color_hsw_8bit)
-_sk_white_color_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_hsw_8bit
-.globl _sk_clear_hsw_8bit
-FUNCTION(_sk_clear_hsw_8bit)
-_sk_clear_hsw_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_hsw_8bit
-.globl _sk_srcatop_hsw_8bit
-FUNCTION(_sk_srcatop_hsw_8bit)
-_sk_srcatop_hsw_8bit:
- .byte 197,125,111,13,199,232,0,0 // vmovdqa 0xe8c7(%rip),%ymm9 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 196,194,101,0,225 // vpshufb %ymm9,%ymm3,%ymm4
- .byte 196,194,109,0,233 // vpshufb %ymm9,%ymm2,%ymm5
- .byte 196,227,125,57,199,1 // vextracti128 $0x1,%ymm0,%xmm7
- .byte 196,98,125,48,223 // vpmovzxbw %xmm7,%ymm11
- .byte 196,98,125,48,192 // vpmovzxbw %xmm0,%ymm8
- .byte 196,227,125,57,206,1 // vextracti128 $0x1,%ymm1,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,98,125,48,209 // vpmovzxbw %xmm1,%ymm10
- .byte 196,227,125,57,239,1 // vextracti128 $0x1,%ymm5,%xmm7
- .byte 196,98,125,48,231 // vpmovzxbw %xmm7,%ymm12
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,227,125,57,231,1 // vextracti128 $0x1,%ymm4,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,193,93,213,226 // vpmullw %ymm10,%ymm4,%ymm4
- .byte 197,197,213,254 // vpmullw %ymm6,%ymm7,%ymm7
- .byte 196,193,85,213,232 // vpmullw %ymm8,%ymm5,%ymm5
- .byte 196,65,29,213,227 // vpmullw %ymm11,%ymm12,%ymm12
- .byte 196,65,29,253,219 // vpaddw %ymm11,%ymm12,%ymm11
- .byte 196,193,85,253,232 // vpaddw %ymm8,%ymm5,%ymm5
- .byte 197,197,253,246 // vpaddw %ymm6,%ymm7,%ymm6
- .byte 196,193,93,253,226 // vpaddw %ymm10,%ymm4,%ymm4
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 196,193,69,113,211,8 // vpsrlw $0x8,%ymm11,%ymm7
- .byte 196,99,85,56,199,1 // vinserti128 $0x1,%xmm7,%ymm5,%ymm8
- .byte 196,227,85,70,239,49 // vperm2i128 $0x31,%ymm7,%ymm5,%ymm5
- .byte 197,61,103,213 // vpackuswb %ymm5,%ymm8,%ymm10
- .byte 196,227,93,56,254,1 // vinserti128 $0x1,%xmm6,%ymm4,%ymm7
- .byte 196,227,93,70,230,49 // vperm2i128 $0x31,%ymm6,%ymm4,%ymm4
- .byte 197,69,103,196 // vpackuswb %ymm4,%ymm7,%ymm8
- .byte 196,194,125,0,193 // vpshufb %ymm9,%ymm0,%ymm0
- .byte 196,194,117,0,201 // vpshufb %ymm9,%ymm1,%ymm1
- .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6
- .byte 197,245,239,206 // vpxor %ymm6,%ymm1,%ymm1
- .byte 197,253,239,198 // vpxor %ymm6,%ymm0,%ymm0
- .byte 196,227,125,57,214,1 // vextracti128 $0x1,%ymm2,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,250 // vpmovzxbw %xmm2,%ymm7
- .byte 196,227,125,57,220,1 // vextracti128 $0x1,%ymm3,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,98,125,48,203 // vpmovzxbw %xmm3,%ymm9
- .byte 196,227,125,57,197,1 // vextracti128 $0x1,%ymm0,%xmm5
- .byte 196,98,125,48,221 // vpmovzxbw %xmm5,%ymm11
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,205,1 // vextracti128 $0x1,%ymm1,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
- .byte 197,221,213,237 // vpmullw %ymm5,%ymm4,%ymm5
- .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,65,77,213,219 // vpmullw %ymm11,%ymm6,%ymm11
- .byte 197,165,253,246 // vpaddw %ymm6,%ymm11,%ymm6
- .byte 197,253,253,199 // vpaddw %ymm7,%ymm0,%ymm0
- .byte 197,213,253,228 // vpaddw %ymm4,%ymm5,%ymm4
- .byte 196,193,117,253,201 // vpaddw %ymm9,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,213,113,214,8 // vpsrlw $0x8,%ymm6,%ymm5
- .byte 196,227,125,56,245,1 // vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- .byte 196,227,125,70,197,49 // vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,193,125,252,194 // vpaddb %ymm10,%ymm0,%ymm0
- .byte 196,227,117,56,236,1 // vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- .byte 196,227,117,70,204,49 // vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- .byte 197,213,103,201 // vpackuswb %ymm1,%ymm5,%ymm1
- .byte 196,193,117,252,200 // vpaddb %ymm8,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_hsw_8bit
-.globl _sk_dstatop_hsw_8bit
-FUNCTION(_sk_dstatop_hsw_8bit)
-_sk_dstatop_hsw_8bit:
- .byte 197,125,111,13,128,231,0,0 // vmovdqa 0xe780(%rip),%ymm9 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
- .byte 196,194,117,0,225 // vpshufb %ymm9,%ymm1,%ymm4
- .byte 196,194,125,0,233 // vpshufb %ymm9,%ymm0,%ymm5
- .byte 196,227,125,57,215,1 // vextracti128 $0x1,%ymm2,%xmm7
- .byte 196,98,125,48,223 // vpmovzxbw %xmm7,%ymm11
- .byte 196,98,125,48,194 // vpmovzxbw %xmm2,%ymm8
- .byte 196,227,125,57,222,1 // vextracti128 $0x1,%ymm3,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,98,125,48,211 // vpmovzxbw %xmm3,%ymm10
- .byte 196,227,125,57,239,1 // vextracti128 $0x1,%ymm5,%xmm7
- .byte 196,98,125,48,231 // vpmovzxbw %xmm7,%ymm12
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,227,125,57,231,1 // vextracti128 $0x1,%ymm4,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 197,173,213,228 // vpmullw %ymm4,%ymm10,%ymm4
- .byte 197,205,213,255 // vpmullw %ymm7,%ymm6,%ymm7
- .byte 197,189,213,237 // vpmullw %ymm5,%ymm8,%ymm5
- .byte 196,65,37,213,228 // vpmullw %ymm12,%ymm11,%ymm12
- .byte 196,65,29,253,219 // vpaddw %ymm11,%ymm12,%ymm11
- .byte 196,193,85,253,232 // vpaddw %ymm8,%ymm5,%ymm5
- .byte 197,197,253,246 // vpaddw %ymm6,%ymm7,%ymm6
- .byte 196,193,93,253,226 // vpaddw %ymm10,%ymm4,%ymm4
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 196,193,69,113,211,8 // vpsrlw $0x8,%ymm11,%ymm7
- .byte 196,99,85,56,199,1 // vinserti128 $0x1,%xmm7,%ymm5,%ymm8
- .byte 196,227,85,70,239,49 // vperm2i128 $0x31,%ymm7,%ymm5,%ymm5
- .byte 197,61,103,221 // vpackuswb %ymm5,%ymm8,%ymm11
- .byte 196,227,93,56,254,1 // vinserti128 $0x1,%xmm6,%ymm4,%ymm7
- .byte 196,227,93,70,230,49 // vperm2i128 $0x31,%ymm6,%ymm4,%ymm4
- .byte 197,69,103,212 // vpackuswb %ymm4,%ymm7,%ymm10
- .byte 196,194,109,0,241 // vpshufb %ymm9,%ymm2,%ymm6
- .byte 196,194,101,0,249 // vpshufb %ymm9,%ymm3,%ymm7
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,193,69,239,248 // vpxor %ymm8,%ymm7,%ymm7
- .byte 196,193,77,239,240 // vpxor %ymm8,%ymm6,%ymm6
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,98,125,48,196 // vpmovzxbw %xmm4,%ymm8
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,205,1 // vextracti128 $0x1,%ymm1,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 196,227,125,57,244,1 // vextracti128 $0x1,%ymm6,%xmm4
- .byte 196,98,125,48,204 // vpmovzxbw %xmm4,%ymm9
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 197,197,213,249 // vpmullw %ymm1,%ymm7,%ymm7
- .byte 197,221,213,229 // vpmullw %ymm5,%ymm4,%ymm4
- .byte 197,205,213,240 // vpmullw %ymm0,%ymm6,%ymm6
- .byte 196,65,53,213,200 // vpmullw %ymm8,%ymm9,%ymm9
- .byte 196,65,53,253,192 // vpaddw %ymm8,%ymm9,%ymm8
- .byte 197,205,253,192 // vpaddw %ymm0,%ymm6,%ymm0
- .byte 197,221,253,229 // vpaddw %ymm5,%ymm4,%ymm4
- .byte 197,197,253,201 // vpaddw %ymm1,%ymm7,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 196,193,85,113,208,8 // vpsrlw $0x8,%ymm8,%ymm5
- .byte 196,227,125,56,245,1 // vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- .byte 196,227,125,70,197,49 // vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,193,125,252,195 // vpaddb %ymm11,%ymm0,%ymm0
- .byte 196,227,117,56,236,1 // vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- .byte 196,227,117,70,204,49 // vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- .byte 197,213,103,201 // vpackuswb %ymm1,%ymm5,%ymm1
- .byte 196,193,117,252,202 // vpaddb %ymm10,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_hsw_8bit
-.globl _sk_srcin_hsw_8bit
-FUNCTION(_sk_srcin_hsw_8bit)
-_sk_srcin_hsw_8bit:
- .byte 197,253,111,37,55,230,0,0 // vmovdqa 0xe637(%rip),%ymm4 # 333e0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
- .byte 196,226,101,0,236 // vpshufb %ymm4,%ymm3,%ymm5
- .byte 196,226,109,0,228 // vpshufb %ymm4,%ymm2,%ymm4
- .byte 196,227,125,57,198,1 // vextracti128 $0x1,%ymm0,%xmm6
- .byte 196,98,125,48,198 // vpmovzxbw %xmm6,%ymm8
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,207,1 // vextracti128 $0x1,%ymm1,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 196,227,125,57,230,1 // vextracti128 $0x1,%ymm4,%xmm6
- .byte 196,98,125,48,206 // vpmovzxbw %xmm6,%ymm9
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,227,125,57,238,1 // vextracti128 $0x1,%ymm5,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 197,213,213,233 // vpmullw %ymm1,%ymm5,%ymm5
- .byte 197,205,213,247 // vpmullw %ymm7,%ymm6,%ymm6
- .byte 197,221,213,224 // vpmullw %ymm0,%ymm4,%ymm4
- .byte 196,65,53,213,200 // vpmullw %ymm8,%ymm9,%ymm9
- .byte 196,65,53,253,192 // vpaddw %ymm8,%ymm9,%ymm8
- .byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 197,205,253,231 // vpaddw %ymm7,%ymm6,%ymm4
- .byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 196,193,85,113,208,8 // vpsrlw $0x8,%ymm8,%ymm5
- .byte 196,227,125,56,245,1 // vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- .byte 196,227,125,70,197,49 // vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,227,117,56,236,1 // vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- .byte 196,227,117,70,204,49 // vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- .byte 197,213,103,201 // vpackuswb %ymm1,%ymm5,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_hsw_8bit
-.globl _sk_dstin_hsw_8bit
-FUNCTION(_sk_dstin_hsw_8bit)
-_sk_dstin_hsw_8bit:
- .byte 197,253,111,37,170,229,0,0 // vmovdqa 0xe5aa(%rip),%ymm4 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
- .byte 196,226,117,0,204 // vpshufb %ymm4,%ymm1,%ymm1
- .byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
- .byte 196,227,125,57,212,1 // vextracti128 $0x1,%ymm2,%xmm4
- .byte 196,98,125,48,196 // vpmovzxbw %xmm4,%ymm8
- .byte 196,226,125,48,234 // vpmovzxbw %xmm2,%ymm5
- .byte 196,227,125,57,222,1 // vextracti128 $0x1,%ymm3,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,251 // vpmovzxbw %xmm3,%ymm7
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,98,125,48,204 // vpmovzxbw %xmm4,%ymm9
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
- .byte 197,205,213,228 // vpmullw %ymm4,%ymm6,%ymm4
- .byte 197,213,213,192 // vpmullw %ymm0,%ymm5,%ymm0
- .byte 196,65,61,213,201 // vpmullw %ymm9,%ymm8,%ymm9
- .byte 196,65,53,253,192 // vpaddw %ymm8,%ymm9,%ymm8
- .byte 197,253,253,197 // vpaddw %ymm5,%ymm0,%ymm0
- .byte 197,221,253,230 // vpaddw %ymm6,%ymm4,%ymm4
- .byte 197,245,253,207 // vpaddw %ymm7,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 196,193,85,113,208,8 // vpsrlw $0x8,%ymm8,%ymm5
- .byte 196,227,125,56,245,1 // vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- .byte 196,227,125,70,197,49 // vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,227,117,56,236,1 // vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- .byte 196,227,117,70,204,49 // vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- .byte 197,213,103,201 // vpackuswb %ymm1,%ymm5,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_hsw_8bit
-.globl _sk_srcout_hsw_8bit
-FUNCTION(_sk_srcout_hsw_8bit)
-_sk_srcout_hsw_8bit:
- .byte 197,253,111,37,29,229,0,0 // vmovdqa 0xe51d(%rip),%ymm4 # 33420 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
- .byte 196,226,109,0,236 // vpshufb %ymm4,%ymm2,%ymm5
- .byte 196,226,101,0,228 // vpshufb %ymm4,%ymm3,%ymm4
- .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6
- .byte 197,221,239,230 // vpxor %ymm6,%ymm4,%ymm4
- .byte 197,213,239,238 // vpxor %ymm6,%ymm5,%ymm5
- .byte 196,227,125,57,198,1 // vextracti128 $0x1,%ymm0,%xmm6
- .byte 196,98,125,48,198 // vpmovzxbw %xmm6,%ymm8
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,207,1 // vextracti128 $0x1,%ymm1,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 196,227,125,57,238,1 // vextracti128 $0x1,%ymm5,%xmm6
- .byte 196,98,125,48,206 // vpmovzxbw %xmm6,%ymm9
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,227,125,57,230,1 // vextracti128 $0x1,%ymm4,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 197,221,213,225 // vpmullw %ymm1,%ymm4,%ymm4
- .byte 197,205,213,247 // vpmullw %ymm7,%ymm6,%ymm6
- .byte 197,213,213,232 // vpmullw %ymm0,%ymm5,%ymm5
- .byte 196,65,53,213,200 // vpmullw %ymm8,%ymm9,%ymm9
- .byte 196,65,53,253,192 // vpaddw %ymm8,%ymm9,%ymm8
- .byte 197,213,253,192 // vpaddw %ymm0,%ymm5,%ymm0
- .byte 197,205,253,239 // vpaddw %ymm7,%ymm6,%ymm5
- .byte 197,221,253,201 // vpaddw %ymm1,%ymm4,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,221,113,213,8 // vpsrlw $0x8,%ymm5,%ymm4
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 196,193,85,113,208,8 // vpsrlw $0x8,%ymm8,%ymm5
- .byte 196,227,125,56,245,1 // vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- .byte 196,227,125,70,197,49 // vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,227,117,56,236,1 // vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- .byte 196,227,117,70,204,49 // vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- .byte 197,213,103,201 // vpackuswb %ymm1,%ymm5,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_hsw_8bit
-.globl _sk_dstout_hsw_8bit
-FUNCTION(_sk_dstout_hsw_8bit)
-_sk_dstout_hsw_8bit:
- .byte 197,253,111,37,132,228,0,0 // vmovdqa 0xe484(%rip),%ymm4 # 33440 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
- .byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
- .byte 196,226,117,0,204 // vpshufb %ymm4,%ymm1,%ymm1
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,245,239,204 // vpxor %ymm4,%ymm1,%ymm1
- .byte 197,253,239,196 // vpxor %ymm4,%ymm0,%ymm0
- .byte 196,227,125,57,212,1 // vextracti128 $0x1,%ymm2,%xmm4
- .byte 196,98,125,48,196 // vpmovzxbw %xmm4,%ymm8
- .byte 196,226,125,48,234 // vpmovzxbw %xmm2,%ymm5
- .byte 196,227,125,57,222,1 // vextracti128 $0x1,%ymm3,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,251 // vpmovzxbw %xmm3,%ymm7
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,98,125,48,204 // vpmovzxbw %xmm4,%ymm9
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
- .byte 197,205,213,228 // vpmullw %ymm4,%ymm6,%ymm4
- .byte 197,213,213,192 // vpmullw %ymm0,%ymm5,%ymm0
- .byte 196,65,61,213,201 // vpmullw %ymm9,%ymm8,%ymm9
- .byte 196,65,53,253,192 // vpaddw %ymm8,%ymm9,%ymm8
- .byte 197,253,253,197 // vpaddw %ymm5,%ymm0,%ymm0
- .byte 197,221,253,230 // vpaddw %ymm6,%ymm4,%ymm4
- .byte 197,245,253,207 // vpaddw %ymm7,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 196,193,85,113,208,8 // vpsrlw $0x8,%ymm8,%ymm5
- .byte 196,227,125,56,245,1 // vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- .byte 196,227,125,70,197,49 // vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,227,117,56,236,1 // vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- .byte 196,227,117,70,204,49 // vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- .byte 197,213,103,201 // vpackuswb %ymm1,%ymm5,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_hsw_8bit
-.globl _sk_srcover_hsw_8bit
-FUNCTION(_sk_srcover_hsw_8bit)
-_sk_srcover_hsw_8bit:
- .byte 197,253,111,37,235,227,0,0 // vmovdqa 0xe3eb(%rip),%ymm4 # 33460 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
- .byte 196,226,117,0,236 // vpshufb %ymm4,%ymm1,%ymm5
- .byte 196,226,125,0,228 // vpshufb %ymm4,%ymm0,%ymm4
- .byte 196,227,125,57,214,1 // vextracti128 $0x1,%ymm2,%xmm6
- .byte 196,98,125,48,198 // vpmovzxbw %xmm6,%ymm8
- .byte 196,98,125,48,210 // vpmovzxbw %xmm2,%ymm10
- .byte 196,227,125,57,222,1 // vextracti128 $0x1,%ymm3,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,98,125,48,203 // vpmovzxbw %xmm3,%ymm9
- .byte 196,227,125,57,231,1 // vextracti128 $0x1,%ymm4,%xmm7
- .byte 196,98,125,48,223 // vpmovzxbw %xmm7,%ymm11
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,227,125,57,239,1 // vextracti128 $0x1,%ymm5,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 197,181,213,237 // vpmullw %ymm5,%ymm9,%ymm5
- .byte 197,205,213,255 // vpmullw %ymm7,%ymm6,%ymm7
- .byte 197,173,213,228 // vpmullw %ymm4,%ymm10,%ymm4
- .byte 196,65,61,213,219 // vpmullw %ymm11,%ymm8,%ymm11
- .byte 196,65,37,253,192 // vpaddw %ymm8,%ymm11,%ymm8
- .byte 196,193,93,253,226 // vpaddw %ymm10,%ymm4,%ymm4
- .byte 197,197,253,246 // vpaddw %ymm6,%ymm7,%ymm6
- .byte 196,193,85,253,233 // vpaddw %ymm9,%ymm5,%ymm5
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 196,193,69,113,208,8 // vpsrlw $0x8,%ymm8,%ymm7
- .byte 196,99,93,56,199,1 // vinserti128 $0x1,%xmm7,%ymm4,%ymm8
- .byte 196,227,93,70,231,49 // vperm2i128 $0x31,%ymm7,%ymm4,%ymm4
- .byte 197,189,103,228 // vpackuswb %ymm4,%ymm8,%ymm4
- .byte 196,227,85,56,254,1 // vinserti128 $0x1,%xmm6,%ymm5,%ymm7
- .byte 196,227,85,70,238,49 // vperm2i128 $0x31,%ymm6,%ymm5,%ymm5
- .byte 197,197,103,237 // vpackuswb %ymm5,%ymm7,%ymm5
- .byte 197,229,252,201 // vpaddb %ymm1,%ymm3,%ymm1
- .byte 197,245,248,205 // vpsubb %ymm5,%ymm1,%ymm1
- .byte 197,237,252,192 // vpaddb %ymm0,%ymm2,%ymm0
- .byte 197,253,248,196 // vpsubb %ymm4,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_hsw_8bit
-.globl _sk_dstover_hsw_8bit
-FUNCTION(_sk_dstover_hsw_8bit)
-_sk_dstover_hsw_8bit:
- .byte 197,253,111,37,76,227,0,0 // vmovdqa 0xe34c(%rip),%ymm4 # 33480 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
- .byte 196,226,101,0,236 // vpshufb %ymm4,%ymm3,%ymm5
- .byte 196,226,109,0,228 // vpshufb %ymm4,%ymm2,%ymm4
- .byte 196,227,125,57,198,1 // vextracti128 $0x1,%ymm0,%xmm6
- .byte 196,98,125,48,198 // vpmovzxbw %xmm6,%ymm8
- .byte 196,98,125,48,208 // vpmovzxbw %xmm0,%ymm10
- .byte 196,227,125,57,206,1 // vextracti128 $0x1,%ymm1,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,98,125,48,201 // vpmovzxbw %xmm1,%ymm9
- .byte 196,227,125,57,231,1 // vextracti128 $0x1,%ymm4,%xmm7
- .byte 196,98,125,48,223 // vpmovzxbw %xmm7,%ymm11
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,227,125,57,239,1 // vextracti128 $0x1,%ymm5,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,193,85,213,233 // vpmullw %ymm9,%ymm5,%ymm5
- .byte 197,197,213,254 // vpmullw %ymm6,%ymm7,%ymm7
- .byte 196,193,93,213,226 // vpmullw %ymm10,%ymm4,%ymm4
- .byte 196,65,37,213,216 // vpmullw %ymm8,%ymm11,%ymm11
- .byte 196,65,37,253,192 // vpaddw %ymm8,%ymm11,%ymm8
- .byte 196,193,93,253,226 // vpaddw %ymm10,%ymm4,%ymm4
- .byte 197,197,253,246 // vpaddw %ymm6,%ymm7,%ymm6
- .byte 196,193,85,253,233 // vpaddw %ymm9,%ymm5,%ymm5
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 196,193,69,113,208,8 // vpsrlw $0x8,%ymm8,%ymm7
- .byte 196,99,93,56,199,1 // vinserti128 $0x1,%xmm7,%ymm4,%ymm8
- .byte 196,227,93,70,231,49 // vperm2i128 $0x31,%ymm7,%ymm4,%ymm4
- .byte 197,189,103,228 // vpackuswb %ymm4,%ymm8,%ymm4
- .byte 196,227,85,56,254,1 // vinserti128 $0x1,%xmm6,%ymm5,%ymm7
- .byte 196,227,85,70,238,49 // vperm2i128 $0x31,%ymm6,%ymm5,%ymm5
- .byte 197,197,103,237 // vpackuswb %ymm5,%ymm7,%ymm5
- .byte 197,229,252,201 // vpaddb %ymm1,%ymm3,%ymm1
- .byte 197,245,248,205 // vpsubb %ymm5,%ymm1,%ymm1
- .byte 197,237,252,192 // vpaddb %ymm0,%ymm2,%ymm0
- .byte 197,253,248,196 // vpsubb %ymm4,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_hsw_8bit
-.globl _sk_modulate_hsw_8bit
-FUNCTION(_sk_modulate_hsw_8bit)
-_sk_modulate_hsw_8bit:
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,205,1 // vextracti128 $0x1,%ymm1,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 196,227,125,57,214,1 // vextracti128 $0x1,%ymm2,%xmm6
- .byte 196,98,125,48,198 // vpmovzxbw %xmm6,%ymm8
- .byte 196,226,125,48,250 // vpmovzxbw %xmm2,%ymm7
- .byte 196,227,125,57,222,1 // vextracti128 $0x1,%ymm3,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,98,125,48,203 // vpmovzxbw %xmm3,%ymm9
- .byte 197,53,213,201 // vpmullw %ymm1,%ymm9,%ymm9
- .byte 197,205,213,245 // vpmullw %ymm5,%ymm6,%ymm6
- .byte 197,197,213,248 // vpmullw %ymm0,%ymm7,%ymm7
- .byte 197,61,213,196 // vpmullw %ymm4,%ymm8,%ymm8
- .byte 197,189,253,228 // vpaddw %ymm4,%ymm8,%ymm4
- .byte 197,197,253,192 // vpaddw %ymm0,%ymm7,%ymm0
- .byte 197,205,253,237 // vpaddw %ymm5,%ymm6,%ymm5
- .byte 197,181,253,201 // vpaddw %ymm1,%ymm9,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 196,227,125,56,244,1 // vinserti128 $0x1,%xmm4,%ymm0,%ymm6
- .byte 196,227,125,70,196,49 // vperm2i128 $0x31,%ymm4,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,227,117,56,229,1 // vinserti128 $0x1,%xmm5,%ymm1,%ymm4
- .byte 196,227,117,70,205,49 // vperm2i128 $0x31,%ymm5,%ymm1,%ymm1
- .byte 197,221,103,201 // vpackuswb %ymm1,%ymm4,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_hsw_8bit
-.globl _sk_multiply_hsw_8bit
-FUNCTION(_sk_multiply_hsw_8bit)
-_sk_multiply_hsw_8bit:
- .byte 197,125,111,21,19,226,0,0 // vmovdqa 0xe213(%rip),%ymm10 # 334a0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 196,194,109,0,226 // vpshufb %ymm10,%ymm2,%ymm4
- .byte 196,194,101,0,234 // vpshufb %ymm10,%ymm3,%ymm5
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 196,65,85,239,195 // vpxor %ymm11,%ymm5,%ymm8
- .byte 196,65,93,239,203 // vpxor %ymm11,%ymm4,%ymm9
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,98,125,48,236 // vpmovzxbw %xmm4,%ymm13
- .byte 196,98,125,48,240 // vpmovzxbw %xmm0,%ymm14
- .byte 196,227,125,57,206,1 // vextracti128 $0x1,%ymm1,%xmm6
- .byte 196,98,125,48,254 // vpmovzxbw %xmm6,%ymm15
- .byte 196,226,125,48,249 // vpmovzxbw %xmm1,%ymm7
- .byte 196,99,125,57,204,1 // vextracti128 $0x1,%ymm9,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,66,125,48,201 // vpmovzxbw %xmm9,%ymm9
- .byte 196,99,125,57,197,1 // vextracti128 $0x1,%ymm8,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 197,61,213,199 // vpmullw %ymm7,%ymm8,%ymm8
- .byte 196,193,85,213,239 // vpmullw %ymm15,%ymm5,%ymm5
- .byte 196,65,53,213,206 // vpmullw %ymm14,%ymm9,%ymm9
- .byte 196,193,93,213,229 // vpmullw %ymm13,%ymm4,%ymm4
- .byte 196,193,93,253,229 // vpaddw %ymm13,%ymm4,%ymm4
- .byte 196,65,53,253,206 // vpaddw %ymm14,%ymm9,%ymm9
- .byte 196,193,85,253,239 // vpaddw %ymm15,%ymm5,%ymm5
- .byte 197,61,253,199 // vpaddw %ymm7,%ymm8,%ymm8
- .byte 196,193,29,113,208,8 // vpsrlw $0x8,%ymm8,%ymm12
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 196,193,61,113,209,8 // vpsrlw $0x8,%ymm9,%ymm8
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 196,99,61,56,204,1 // vinserti128 $0x1,%xmm4,%ymm8,%ymm9
- .byte 196,227,61,70,228,49 // vperm2i128 $0x31,%ymm4,%ymm8,%ymm4
- .byte 197,53,103,196 // vpackuswb %ymm4,%ymm9,%ymm8
- .byte 196,227,29,56,229,1 // vinserti128 $0x1,%xmm5,%ymm12,%ymm4
- .byte 196,227,29,70,237,49 // vperm2i128 $0x31,%ymm5,%ymm12,%ymm5
- .byte 197,93,103,205 // vpackuswb %ymm5,%ymm4,%ymm9
- .byte 196,194,125,0,194 // vpshufb %ymm10,%ymm0,%ymm0
- .byte 196,194,117,0,202 // vpshufb %ymm10,%ymm1,%ymm1
- .byte 196,65,117,239,227 // vpxor %ymm11,%ymm1,%ymm12
- .byte 196,193,125,239,227 // vpxor %ymm11,%ymm0,%ymm4
- .byte 196,227,125,57,208,1 // vextracti128 $0x1,%ymm2,%xmm0
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,226,125,48,202 // vpmovzxbw %xmm2,%ymm1
- .byte 196,227,125,57,221,1 // vextracti128 $0x1,%ymm3,%xmm5
- .byte 196,98,125,48,213 // vpmovzxbw %xmm5,%ymm10
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 197,245,213,228 // vpmullw %ymm4,%ymm1,%ymm4
- .byte 197,253,213,237 // vpmullw %ymm5,%ymm0,%ymm5
- .byte 197,213,253,232 // vpaddw %ymm0,%ymm5,%ymm5
- .byte 197,221,253,225 // vpaddw %ymm1,%ymm4,%ymm4
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 196,99,93,56,221,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm11
- .byte 196,227,93,70,229,49 // vperm2i128 $0x31,%ymm5,%ymm4,%ymm4
- .byte 196,226,125,48,235 // vpmovzxbw %xmm3,%ymm5
- .byte 197,165,103,228 // vpackuswb %ymm4,%ymm11,%ymm4
- .byte 196,99,125,57,230,1 // vextracti128 $0x1,%ymm12,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,66,125,48,220 // vpmovzxbw %xmm12,%ymm11
- .byte 196,65,85,213,219 // vpmullw %ymm11,%ymm5,%ymm11
- .byte 197,173,213,246 // vpmullw %ymm6,%ymm10,%ymm6
- .byte 196,193,77,253,242 // vpaddw %ymm10,%ymm6,%ymm6
- .byte 197,37,253,221 // vpaddw %ymm5,%ymm11,%ymm11
- .byte 196,193,37,113,211,8 // vpsrlw $0x8,%ymm11,%ymm11
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 196,193,93,252,224 // vpaddb %ymm8,%ymm4,%ymm4
- .byte 196,99,37,56,198,1 // vinserti128 $0x1,%xmm6,%ymm11,%ymm8
- .byte 196,227,37,70,246,49 // vperm2i128 $0x31,%ymm6,%ymm11,%ymm6
- .byte 197,189,103,246 // vpackuswb %ymm6,%ymm8,%ymm6
- .byte 196,193,77,252,241 // vpaddb %ymm9,%ymm6,%ymm6
- .byte 196,193,125,213,197 // vpmullw %ymm13,%ymm0,%ymm0
- .byte 196,193,125,253,197 // vpaddw %ymm13,%ymm0,%ymm0
- .byte 196,193,117,213,206 // vpmullw %ymm14,%ymm1,%ymm1
- .byte 196,193,117,253,206 // vpaddw %ymm14,%ymm1,%ymm1
- .byte 196,65,45,213,199 // vpmullw %ymm15,%ymm10,%ymm8
- .byte 196,65,61,253,199 // vpaddw %ymm15,%ymm8,%ymm8
- .byte 197,213,213,239 // vpmullw %ymm7,%ymm5,%ymm5
- .byte 197,213,253,239 // vpaddw %ymm7,%ymm5,%ymm5
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 196,227,117,56,248,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm7
- .byte 196,227,117,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm1,%ymm0
- .byte 197,197,103,192 // vpackuswb %ymm0,%ymm7,%ymm0
- .byte 197,245,113,213,8 // vpsrlw $0x8,%ymm5,%ymm1
- .byte 196,193,85,113,208,8 // vpsrlw $0x8,%ymm8,%ymm5
- .byte 197,221,252,192 // vpaddb %ymm0,%ymm4,%ymm0
- .byte 196,227,117,56,229,1 // vinserti128 $0x1,%xmm5,%ymm1,%ymm4
- .byte 196,227,117,70,205,49 // vperm2i128 $0x31,%ymm5,%ymm1,%ymm1
- .byte 197,221,103,201 // vpackuswb %ymm1,%ymm4,%ymm1
- .byte 197,205,252,201 // vpaddb %ymm1,%ymm6,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_hsw_8bit
-.globl _sk_screen_hsw_8bit
-FUNCTION(_sk_screen_hsw_8bit)
-_sk_screen_hsw_8bit:
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,245,239,236 // vpxor %ymm4,%ymm1,%ymm5
- .byte 197,253,239,228 // vpxor %ymm4,%ymm0,%ymm4
- .byte 196,227,125,57,230,1 // vextracti128 $0x1,%ymm4,%xmm6
- .byte 196,98,125,48,198 // vpmovzxbw %xmm6,%ymm8
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,227,125,57,239,1 // vextracti128 $0x1,%ymm5,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,227,125,57,214,1 // vextracti128 $0x1,%ymm2,%xmm6
- .byte 196,98,125,48,214 // vpmovzxbw %xmm6,%ymm10
- .byte 196,98,125,48,202 // vpmovzxbw %xmm2,%ymm9
- .byte 196,227,125,57,222,1 // vextracti128 $0x1,%ymm3,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,98,125,48,219 // vpmovzxbw %xmm3,%ymm11
- .byte 197,37,213,221 // vpmullw %ymm5,%ymm11,%ymm11
- .byte 197,205,213,247 // vpmullw %ymm7,%ymm6,%ymm6
- .byte 197,53,213,204 // vpmullw %ymm4,%ymm9,%ymm9
- .byte 196,65,45,213,208 // vpmullw %ymm8,%ymm10,%ymm10
- .byte 196,65,45,253,192 // vpaddw %ymm8,%ymm10,%ymm8
- .byte 197,181,253,228 // vpaddw %ymm4,%ymm9,%ymm4
- .byte 197,205,253,247 // vpaddw %ymm7,%ymm6,%ymm6
- .byte 197,165,253,237 // vpaddw %ymm5,%ymm11,%ymm5
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 196,193,69,113,208,8 // vpsrlw $0x8,%ymm8,%ymm7
- .byte 196,99,93,56,199,1 // vinserti128 $0x1,%xmm7,%ymm4,%ymm8
- .byte 196,227,93,70,231,49 // vperm2i128 $0x31,%ymm7,%ymm4,%ymm4
- .byte 197,189,103,228 // vpackuswb %ymm4,%ymm8,%ymm4
- .byte 196,227,85,56,254,1 // vinserti128 $0x1,%xmm6,%ymm5,%ymm7
- .byte 196,227,85,70,238,49 // vperm2i128 $0x31,%ymm6,%ymm5,%ymm5
- .byte 197,197,103,237 // vpackuswb %ymm5,%ymm7,%ymm5
- .byte 197,221,252,192 // vpaddb %ymm0,%ymm4,%ymm0
- .byte 197,213,252,201 // vpaddb %ymm1,%ymm5,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__hsw_8bit
-.globl _sk_xor__hsw_8bit
-FUNCTION(_sk_xor__hsw_8bit)
-_sk_xor__hsw_8bit:
- .byte 197,125,111,5,171,223,0,0 // vmovdqa 0xdfab(%rip),%ymm8 # 334c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
- .byte 196,194,109,0,240 // vpshufb %ymm8,%ymm2,%ymm6
- .byte 196,194,101,0,248 // vpshufb %ymm8,%ymm3,%ymm7
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,193,69,239,250 // vpxor %ymm10,%ymm7,%ymm7
- .byte 196,193,77,239,242 // vpxor %ymm10,%ymm6,%ymm6
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,98,125,48,228 // vpmovzxbw %xmm4,%ymm12
- .byte 196,98,125,48,200 // vpmovzxbw %xmm0,%ymm9
- .byte 196,227,125,57,205,1 // vextracti128 $0x1,%ymm1,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,98,125,48,217 // vpmovzxbw %xmm1,%ymm11
- .byte 196,227,125,57,244,1 // vextracti128 $0x1,%ymm6,%xmm4
- .byte 196,98,125,48,236 // vpmovzxbw %xmm4,%ymm13
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,193,69,213,251 // vpmullw %ymm11,%ymm7,%ymm7
- .byte 197,221,213,229 // vpmullw %ymm5,%ymm4,%ymm4
- .byte 196,193,77,213,241 // vpmullw %ymm9,%ymm6,%ymm6
- .byte 196,65,21,213,236 // vpmullw %ymm12,%ymm13,%ymm13
- .byte 196,65,21,253,228 // vpaddw %ymm12,%ymm13,%ymm12
- .byte 196,193,77,253,241 // vpaddw %ymm9,%ymm6,%ymm6
- .byte 197,221,253,229 // vpaddw %ymm5,%ymm4,%ymm4
- .byte 196,193,69,253,235 // vpaddw %ymm11,%ymm7,%ymm5
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 196,193,69,113,212,8 // vpsrlw $0x8,%ymm12,%ymm7
- .byte 196,99,77,56,207,1 // vinserti128 $0x1,%xmm7,%ymm6,%ymm9
- .byte 196,227,77,70,247,49 // vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- .byte 197,53,103,222 // vpackuswb %ymm6,%ymm9,%ymm11
- .byte 196,227,85,56,244,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,227,85,70,228,49 // vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- .byte 197,77,103,204 // vpackuswb %ymm4,%ymm6,%ymm9
- .byte 196,194,125,0,192 // vpshufb %ymm8,%ymm0,%ymm0
- .byte 196,194,117,0,200 // vpshufb %ymm8,%ymm1,%ymm1
- .byte 196,193,117,239,202 // vpxor %ymm10,%ymm1,%ymm1
- .byte 196,193,125,239,194 // vpxor %ymm10,%ymm0,%ymm0
- .byte 196,227,125,57,212,1 // vextracti128 $0x1,%ymm2,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,226,125,48,234 // vpmovzxbw %xmm2,%ymm5
- .byte 196,227,125,57,222,1 // vextracti128 $0x1,%ymm3,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,98,125,48,195 // vpmovzxbw %xmm3,%ymm8
- .byte 196,227,125,57,199,1 // vextracti128 $0x1,%ymm0,%xmm7
- .byte 196,98,125,48,215 // vpmovzxbw %xmm7,%ymm10
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,227,125,57,207,1 // vextracti128 $0x1,%ymm1,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,201 // vpmovzxbw %xmm1,%ymm1
- .byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
- .byte 197,205,213,255 // vpmullw %ymm7,%ymm6,%ymm7
- .byte 197,213,213,192 // vpmullw %ymm0,%ymm5,%ymm0
- .byte 196,65,93,213,210 // vpmullw %ymm10,%ymm4,%ymm10
- .byte 197,173,253,228 // vpaddw %ymm4,%ymm10,%ymm4
- .byte 197,253,253,197 // vpaddw %ymm5,%ymm0,%ymm0
- .byte 197,197,253,238 // vpaddw %ymm6,%ymm7,%ymm5
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 196,227,125,56,244,1 // vinserti128 $0x1,%xmm4,%ymm0,%ymm6
- .byte 196,227,125,70,196,49 // vperm2i128 $0x31,%ymm4,%ymm0,%ymm0
- .byte 197,205,103,192 // vpackuswb %ymm0,%ymm6,%ymm0
- .byte 196,193,125,252,195 // vpaddb %ymm11,%ymm0,%ymm0
- .byte 196,227,117,56,229,1 // vinserti128 $0x1,%xmm5,%ymm1,%ymm4
- .byte 196,227,117,70,205,49 // vperm2i128 $0x31,%ymm5,%ymm1,%ymm1
- .byte 197,221,103,201 // vpackuswb %ymm1,%ymm4,%ymm1
- .byte 196,193,117,252,201 // vpaddb %ymm9,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__hsw_8bit
-.globl _sk_plus__hsw_8bit
-FUNCTION(_sk_plus__hsw_8bit)
-_sk_plus__hsw_8bit:
- .byte 197,253,220,194 // vpaddusb %ymm2,%ymm0,%ymm0
- .byte 197,245,220,203 // vpaddusb %ymm3,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_hsw_8bit
-.globl _sk_darken_hsw_8bit
-FUNCTION(_sk_darken_hsw_8bit)
-_sk_darken_hsw_8bit:
- .byte 197,125,111,13,75,222,0,0 // vmovdqa 0xde4b(%rip),%ymm9 # 334e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
- .byte 196,194,101,0,225 // vpshufb %ymm9,%ymm3,%ymm4
- .byte 196,194,109,0,241 // vpshufb %ymm9,%ymm2,%ymm6
- .byte 196,227,125,57,199,1 // vextracti128 $0x1,%ymm0,%xmm7
- .byte 196,98,125,48,223 // vpmovzxbw %xmm7,%ymm11
- .byte 196,98,125,48,192 // vpmovzxbw %xmm0,%ymm8
- .byte 196,227,125,57,205,1 // vextracti128 $0x1,%ymm1,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,98,125,48,209 // vpmovzxbw %xmm1,%ymm10
- .byte 196,227,125,57,247,1 // vextracti128 $0x1,%ymm6,%xmm7
- .byte 196,98,125,48,231 // vpmovzxbw %xmm7,%ymm12
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,227,125,57,231,1 // vextracti128 $0x1,%ymm4,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,193,93,213,226 // vpmullw %ymm10,%ymm4,%ymm4
- .byte 197,197,213,253 // vpmullw %ymm5,%ymm7,%ymm7
- .byte 196,193,77,213,240 // vpmullw %ymm8,%ymm6,%ymm6
- .byte 196,65,29,213,227 // vpmullw %ymm11,%ymm12,%ymm12
- .byte 196,65,29,253,219 // vpaddw %ymm11,%ymm12,%ymm11
- .byte 196,193,77,253,240 // vpaddw %ymm8,%ymm6,%ymm6
- .byte 197,197,253,237 // vpaddw %ymm5,%ymm7,%ymm5
- .byte 196,193,93,253,226 // vpaddw %ymm10,%ymm4,%ymm4
- .byte 197,197,113,212,8 // vpsrlw $0x8,%ymm4,%ymm7
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,221,113,214,8 // vpsrlw $0x8,%ymm6,%ymm4
- .byte 196,193,77,113,211,8 // vpsrlw $0x8,%ymm11,%ymm6
- .byte 196,99,93,56,198,1 // vinserti128 $0x1,%xmm6,%ymm4,%ymm8
- .byte 196,227,93,70,230,49 // vperm2i128 $0x31,%ymm6,%ymm4,%ymm4
- .byte 197,61,103,196 // vpackuswb %ymm4,%ymm8,%ymm8
- .byte 196,227,69,56,245,1 // vinserti128 $0x1,%xmm5,%ymm7,%ymm6
- .byte 196,227,69,70,237,49 // vperm2i128 $0x31,%ymm5,%ymm7,%ymm5
- .byte 197,77,103,213 // vpackuswb %ymm5,%ymm6,%ymm10
- .byte 196,194,117,0,233 // vpshufb %ymm9,%ymm1,%ymm5
- .byte 196,194,125,0,249 // vpshufb %ymm9,%ymm0,%ymm7
- .byte 196,227,125,57,212,1 // vextracti128 $0x1,%ymm2,%xmm4
- .byte 196,98,125,48,228 // vpmovzxbw %xmm4,%ymm12
- .byte 196,98,125,48,202 // vpmovzxbw %xmm2,%ymm9
- .byte 196,227,125,57,222,1 // vextracti128 $0x1,%ymm3,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,98,125,48,219 // vpmovzxbw %xmm3,%ymm11
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,98,125,48,236 // vpmovzxbw %xmm4,%ymm13
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,227,125,57,236,1 // vextracti128 $0x1,%ymm5,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 197,165,213,237 // vpmullw %ymm5,%ymm11,%ymm5
- .byte 197,205,213,228 // vpmullw %ymm4,%ymm6,%ymm4
- .byte 197,181,213,255 // vpmullw %ymm7,%ymm9,%ymm7
- .byte 196,65,29,213,237 // vpmullw %ymm13,%ymm12,%ymm13
- .byte 196,65,21,253,228 // vpaddw %ymm12,%ymm13,%ymm12
- .byte 196,193,69,253,249 // vpaddw %ymm9,%ymm7,%ymm7
- .byte 197,221,253,230 // vpaddw %ymm6,%ymm4,%ymm4
- .byte 196,193,85,253,235 // vpaddw %ymm11,%ymm5,%ymm5
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,205,113,215,8 // vpsrlw $0x8,%ymm7,%ymm6
- .byte 196,193,69,113,212,8 // vpsrlw $0x8,%ymm12,%ymm7
- .byte 196,99,77,56,207,1 // vinserti128 $0x1,%xmm7,%ymm6,%ymm9
- .byte 196,227,77,70,247,49 // vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- .byte 197,181,103,246 // vpackuswb %ymm6,%ymm9,%ymm6
- .byte 196,227,85,56,252,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,227,85,70,228,49 // vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- .byte 197,197,103,228 // vpackuswb %ymm4,%ymm7,%ymm4
- .byte 197,189,222,238 // vpmaxub %ymm6,%ymm8,%ymm5
- .byte 197,173,222,252 // vpmaxub %ymm4,%ymm10,%ymm7
- .byte 197,237,252,192 // vpaddb %ymm0,%ymm2,%ymm0
- .byte 197,229,252,201 // vpaddb %ymm1,%ymm3,%ymm1
- .byte 197,245,248,255 // vpsubb %ymm7,%ymm1,%ymm7
- .byte 197,253,248,237 // vpsubb %ymm5,%ymm0,%ymm5
- .byte 197,245,248,204 // vpsubb %ymm4,%ymm1,%ymm1
- .byte 197,253,248,198 // vpsubb %ymm6,%ymm0,%ymm0
- .byte 196,226,125,88,37,174,224,0,0 // vpbroadcastd 0xe0ae(%rip),%ymm4 # 338b4 <_sk_srcover_rgba_8888_sse2_lowp+0xe38>
- .byte 196,227,125,76,197,64 // vpblendvb %ymm4,%ymm5,%ymm0,%ymm0
- .byte 196,227,117,76,207,64 // vpblendvb %ymm4,%ymm7,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_hsw_8bit
-.globl _sk_lighten_hsw_8bit
-FUNCTION(_sk_lighten_hsw_8bit)
-_sk_lighten_hsw_8bit:
- .byte 197,125,111,13,226,220,0,0 // vmovdqa 0xdce2(%rip),%ymm9 # 33500 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 196,194,101,0,225 // vpshufb %ymm9,%ymm3,%ymm4
- .byte 196,194,109,0,241 // vpshufb %ymm9,%ymm2,%ymm6
- .byte 196,227,125,57,199,1 // vextracti128 $0x1,%ymm0,%xmm7
- .byte 196,98,125,48,223 // vpmovzxbw %xmm7,%ymm11
- .byte 196,98,125,48,192 // vpmovzxbw %xmm0,%ymm8
- .byte 196,227,125,57,205,1 // vextracti128 $0x1,%ymm1,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,98,125,48,209 // vpmovzxbw %xmm1,%ymm10
- .byte 196,227,125,57,247,1 // vextracti128 $0x1,%ymm6,%xmm7
- .byte 196,98,125,48,231 // vpmovzxbw %xmm7,%ymm12
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,227,125,57,231,1 // vextracti128 $0x1,%ymm4,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,193,93,213,226 // vpmullw %ymm10,%ymm4,%ymm4
- .byte 197,197,213,253 // vpmullw %ymm5,%ymm7,%ymm7
- .byte 196,193,77,213,240 // vpmullw %ymm8,%ymm6,%ymm6
- .byte 196,65,29,213,227 // vpmullw %ymm11,%ymm12,%ymm12
- .byte 196,65,29,253,219 // vpaddw %ymm11,%ymm12,%ymm11
- .byte 196,193,77,253,240 // vpaddw %ymm8,%ymm6,%ymm6
- .byte 197,197,253,237 // vpaddw %ymm5,%ymm7,%ymm5
- .byte 196,193,93,253,226 // vpaddw %ymm10,%ymm4,%ymm4
- .byte 197,197,113,212,8 // vpsrlw $0x8,%ymm4,%ymm7
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,221,113,214,8 // vpsrlw $0x8,%ymm6,%ymm4
- .byte 196,193,77,113,211,8 // vpsrlw $0x8,%ymm11,%ymm6
- .byte 196,99,93,56,198,1 // vinserti128 $0x1,%xmm6,%ymm4,%ymm8
- .byte 196,227,93,70,230,49 // vperm2i128 $0x31,%ymm6,%ymm4,%ymm4
- .byte 197,61,103,196 // vpackuswb %ymm4,%ymm8,%ymm8
- .byte 196,227,69,56,245,1 // vinserti128 $0x1,%xmm5,%ymm7,%ymm6
- .byte 196,227,69,70,237,49 // vperm2i128 $0x31,%ymm5,%ymm7,%ymm5
- .byte 197,77,103,213 // vpackuswb %ymm5,%ymm6,%ymm10
- .byte 196,194,117,0,233 // vpshufb %ymm9,%ymm1,%ymm5
- .byte 196,194,125,0,249 // vpshufb %ymm9,%ymm0,%ymm7
- .byte 196,227,125,57,212,1 // vextracti128 $0x1,%ymm2,%xmm4
- .byte 196,98,125,48,228 // vpmovzxbw %xmm4,%ymm12
- .byte 196,98,125,48,202 // vpmovzxbw %xmm2,%ymm9
- .byte 196,227,125,57,222,1 // vextracti128 $0x1,%ymm3,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,98,125,48,219 // vpmovzxbw %xmm3,%ymm11
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,98,125,48,236 // vpmovzxbw %xmm4,%ymm13
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,227,125,57,236,1 // vextracti128 $0x1,%ymm5,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 197,165,213,237 // vpmullw %ymm5,%ymm11,%ymm5
- .byte 197,205,213,228 // vpmullw %ymm4,%ymm6,%ymm4
- .byte 197,181,213,255 // vpmullw %ymm7,%ymm9,%ymm7
- .byte 196,65,29,213,237 // vpmullw %ymm13,%ymm12,%ymm13
- .byte 196,65,21,253,228 // vpaddw %ymm12,%ymm13,%ymm12
- .byte 196,193,69,253,249 // vpaddw %ymm9,%ymm7,%ymm7
- .byte 197,221,253,230 // vpaddw %ymm6,%ymm4,%ymm4
- .byte 196,193,85,253,235 // vpaddw %ymm11,%ymm5,%ymm5
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,205,113,215,8 // vpsrlw $0x8,%ymm7,%ymm6
- .byte 196,193,69,113,212,8 // vpsrlw $0x8,%ymm12,%ymm7
- .byte 196,99,77,56,207,1 // vinserti128 $0x1,%xmm7,%ymm6,%ymm9
- .byte 196,227,77,70,247,49 // vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- .byte 197,181,103,246 // vpackuswb %ymm6,%ymm9,%ymm6
- .byte 196,227,85,56,252,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,227,85,70,228,49 // vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- .byte 197,197,103,228 // vpackuswb %ymm4,%ymm7,%ymm4
- .byte 197,189,218,238 // vpminub %ymm6,%ymm8,%ymm5
- .byte 197,173,218,252 // vpminub %ymm4,%ymm10,%ymm7
- .byte 197,237,252,192 // vpaddb %ymm0,%ymm2,%ymm0
- .byte 197,229,252,201 // vpaddb %ymm1,%ymm3,%ymm1
- .byte 197,245,248,255 // vpsubb %ymm7,%ymm1,%ymm7
- .byte 197,253,248,237 // vpsubb %ymm5,%ymm0,%ymm5
- .byte 197,245,248,204 // vpsubb %ymm4,%ymm1,%ymm1
- .byte 197,253,248,198 // vpsubb %ymm6,%ymm0,%ymm0
- .byte 196,226,125,88,37,37,223,0,0 // vpbroadcastd 0xdf25(%rip),%ymm4 # 338b4 <_sk_srcover_rgba_8888_sse2_lowp+0xe38>
- .byte 196,227,125,76,197,64 // vpblendvb %ymm4,%ymm5,%ymm0,%ymm0
- .byte 196,227,117,76,207,64 // vpblendvb %ymm4,%ymm7,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_hsw_8bit
-.globl _sk_exclusion_hsw_8bit
-FUNCTION(_sk_exclusion_hsw_8bit)
-_sk_exclusion_hsw_8bit:
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,98,125,48,196 // vpmovzxbw %xmm4,%ymm8
- .byte 196,226,125,48,232 // vpmovzxbw %xmm0,%ymm5
- .byte 196,227,125,57,206,1 // vextracti128 $0x1,%ymm1,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,226,125,48,249 // vpmovzxbw %xmm1,%ymm7
- .byte 196,227,125,57,212,1 // vextracti128 $0x1,%ymm2,%xmm4
- .byte 196,98,125,48,212 // vpmovzxbw %xmm4,%ymm10
- .byte 196,98,125,48,202 // vpmovzxbw %xmm2,%ymm9
- .byte 196,227,125,57,220,1 // vextracti128 $0x1,%ymm3,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,98,125,48,219 // vpmovzxbw %xmm3,%ymm11
- .byte 197,37,213,223 // vpmullw %ymm7,%ymm11,%ymm11
- .byte 197,221,213,230 // vpmullw %ymm6,%ymm4,%ymm4
- .byte 197,53,213,205 // vpmullw %ymm5,%ymm9,%ymm9
- .byte 196,65,45,213,208 // vpmullw %ymm8,%ymm10,%ymm10
- .byte 196,65,45,253,192 // vpaddw %ymm8,%ymm10,%ymm8
- .byte 197,181,253,237 // vpaddw %ymm5,%ymm9,%ymm5
- .byte 197,221,253,230 // vpaddw %ymm6,%ymm4,%ymm4
- .byte 197,165,253,247 // vpaddw %ymm7,%ymm11,%ymm6
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 196,193,69,113,208,8 // vpsrlw $0x8,%ymm8,%ymm7
- .byte 196,99,85,56,199,1 // vinserti128 $0x1,%xmm7,%ymm5,%ymm8
- .byte 196,227,85,70,239,49 // vperm2i128 $0x31,%ymm7,%ymm5,%ymm5
- .byte 197,189,103,237 // vpackuswb %ymm5,%ymm8,%ymm5
- .byte 196,227,77,56,252,1 // vinserti128 $0x1,%xmm4,%ymm6,%ymm7
- .byte 196,227,77,70,228,49 // vperm2i128 $0x31,%ymm4,%ymm6,%ymm4
- .byte 197,197,103,228 // vpackuswb %ymm4,%ymm7,%ymm4
- .byte 197,253,111,53,226,218,0,0 // vmovdqa 0xdae2(%rip),%ymm6 # 33520 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
- .byte 197,221,219,254 // vpand %ymm6,%ymm4,%ymm7
- .byte 197,213,219,246 // vpand %ymm6,%ymm5,%ymm6
- .byte 197,237,252,192 // vpaddb %ymm0,%ymm2,%ymm0
- .byte 197,229,252,201 // vpaddb %ymm1,%ymm3,%ymm1
- .byte 197,245,248,204 // vpsubb %ymm4,%ymm1,%ymm1
- .byte 197,245,248,207 // vpsubb %ymm7,%ymm1,%ymm1
- .byte 197,253,248,197 // vpsubb %ymm5,%ymm0,%ymm0
- .byte 197,253,248,198 // vpsubb %ymm6,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_hsw_8bit
-.globl _sk_difference_hsw_8bit
-FUNCTION(_sk_difference_hsw_8bit)
-_sk_difference_hsw_8bit:
- .byte 197,125,111,13,214,218,0,0 // vmovdqa 0xdad6(%rip),%ymm9 # 33540 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
- .byte 196,194,101,0,233 // vpshufb %ymm9,%ymm3,%ymm5
- .byte 196,194,109,0,241 // vpshufb %ymm9,%ymm2,%ymm6
- .byte 196,227,125,57,199,1 // vextracti128 $0x1,%ymm0,%xmm7
- .byte 196,98,125,48,223 // vpmovzxbw %xmm7,%ymm11
- .byte 196,98,125,48,192 // vpmovzxbw %xmm0,%ymm8
- .byte 196,227,125,57,204,1 // vextracti128 $0x1,%ymm1,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,98,125,48,209 // vpmovzxbw %xmm1,%ymm10
- .byte 196,227,125,57,247,1 // vextracti128 $0x1,%ymm6,%xmm7
- .byte 196,98,125,48,231 // vpmovzxbw %xmm7,%ymm12
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,227,125,57,239,1 // vextracti128 $0x1,%ymm5,%xmm7
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,193,85,213,234 // vpmullw %ymm10,%ymm5,%ymm5
- .byte 197,197,213,252 // vpmullw %ymm4,%ymm7,%ymm7
- .byte 196,193,77,213,240 // vpmullw %ymm8,%ymm6,%ymm6
- .byte 196,65,29,213,227 // vpmullw %ymm11,%ymm12,%ymm12
- .byte 196,65,29,253,219 // vpaddw %ymm11,%ymm12,%ymm11
- .byte 196,193,77,253,240 // vpaddw %ymm8,%ymm6,%ymm6
- .byte 197,197,253,228 // vpaddw %ymm4,%ymm7,%ymm4
- .byte 196,193,85,253,234 // vpaddw %ymm10,%ymm5,%ymm5
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 196,193,69,113,211,8 // vpsrlw $0x8,%ymm11,%ymm7
- .byte 196,99,77,56,199,1 // vinserti128 $0x1,%xmm7,%ymm6,%ymm8
- .byte 196,227,77,70,247,49 // vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- .byte 197,61,103,214 // vpackuswb %ymm6,%ymm8,%ymm10
- .byte 196,227,85,56,252,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,227,85,70,228,49 // vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- .byte 197,69,103,196 // vpackuswb %ymm4,%ymm7,%ymm8
- .byte 196,194,117,0,225 // vpshufb %ymm9,%ymm1,%ymm4
- .byte 196,194,125,0,249 // vpshufb %ymm9,%ymm0,%ymm7
- .byte 196,227,125,57,213,1 // vextracti128 $0x1,%ymm2,%xmm5
- .byte 196,98,125,48,229 // vpmovzxbw %xmm5,%ymm12
- .byte 196,98,125,48,202 // vpmovzxbw %xmm2,%ymm9
- .byte 196,227,125,57,222,1 // vextracti128 $0x1,%ymm3,%xmm6
- .byte 196,226,125,48,246 // vpmovzxbw %xmm6,%ymm6
- .byte 196,98,125,48,219 // vpmovzxbw %xmm3,%ymm11
- .byte 196,227,125,57,253,1 // vextracti128 $0x1,%ymm7,%xmm5
- .byte 196,98,125,48,237 // vpmovzxbw %xmm5,%ymm13
- .byte 196,226,125,48,255 // vpmovzxbw %xmm7,%ymm7
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 197,165,213,228 // vpmullw %ymm4,%ymm11,%ymm4
- .byte 197,205,213,237 // vpmullw %ymm5,%ymm6,%ymm5
- .byte 197,181,213,255 // vpmullw %ymm7,%ymm9,%ymm7
- .byte 196,65,29,213,237 // vpmullw %ymm13,%ymm12,%ymm13
- .byte 196,65,21,253,228 // vpaddw %ymm12,%ymm13,%ymm12
- .byte 196,193,69,253,249 // vpaddw %ymm9,%ymm7,%ymm7
- .byte 197,213,253,238 // vpaddw %ymm6,%ymm5,%ymm5
- .byte 196,193,93,253,227 // vpaddw %ymm11,%ymm4,%ymm4
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,205,113,215,8 // vpsrlw $0x8,%ymm7,%ymm6
- .byte 196,193,69,113,212,8 // vpsrlw $0x8,%ymm12,%ymm7
- .byte 196,99,77,56,207,1 // vinserti128 $0x1,%xmm7,%ymm6,%ymm9
- .byte 196,227,77,70,247,49 // vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- .byte 197,181,103,246 // vpackuswb %ymm6,%ymm9,%ymm6
- .byte 197,173,218,246 // vpminub %ymm6,%ymm10,%ymm6
- .byte 196,227,93,56,253,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm7
- .byte 196,227,93,70,229,49 // vperm2i128 $0x31,%ymm5,%ymm4,%ymm4
- .byte 197,197,103,228 // vpackuswb %ymm4,%ymm7,%ymm4
- .byte 197,189,218,228 // vpminub %ymm4,%ymm8,%ymm4
- .byte 197,253,111,45,158,217,0,0 // vmovdqa 0xd99e(%rip),%ymm5 # 33560 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
- .byte 197,221,219,253 // vpand %ymm5,%ymm4,%ymm7
- .byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
- .byte 197,237,252,192 // vpaddb %ymm0,%ymm2,%ymm0
- .byte 197,229,252,201 // vpaddb %ymm1,%ymm3,%ymm1
- .byte 197,245,248,204 // vpsubb %ymm4,%ymm1,%ymm1
- .byte 197,245,248,207 // vpsubb %ymm7,%ymm1,%ymm1
- .byte 197,253,248,198 // vpsubb %ymm6,%ymm0,%ymm0
- .byte 197,253,248,197 // vpsubb %ymm5,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_hsw_8bit
-.globl _sk_hardlight_hsw_8bit
-FUNCTION(_sk_hardlight_hsw_8bit)
-_sk_hardlight_hsw_8bit:
- .byte 72,129,236,152,0,0,0 // sub $0x98,%rsp
- .byte 197,253,111,235 // vmovdqa %ymm3,%ymm5
- .byte 197,125,111,193 // vmovdqa %ymm1,%ymm8
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,226,125,48,204 // vpmovzxbw %xmm4,%ymm1
- .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3
- .byte 197,125,111,45,115,217,0,0 // vmovdqa 0xd973(%rip),%ymm13 # 33580 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
- .byte 196,194,125,0,197 // vpshufb %ymm13,%ymm0,%ymm0
- .byte 196,226,125,48,224 // vpmovzxbw %xmm0,%ymm4
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,226,125,48,248 // vpmovzxbw %xmm0,%ymm7
- .byte 197,254,127,84,36,96 // vmovdqu %ymm2,0x60(%rsp)
- .byte 196,227,125,57,208,1 // vextracti128 $0x1,%ymm2,%xmm0
- .byte 196,226,125,48,240 // vpmovzxbw %xmm0,%ymm6
- .byte 196,98,125,48,202 // vpmovzxbw %xmm2,%ymm9
- .byte 196,66,109,0,221 // vpshufb %ymm13,%ymm2,%ymm11
- .byte 196,194,125,48,211 // vpmovzxbw %xmm11,%ymm2
- .byte 196,99,125,57,216,1 // vextracti128 $0x1,%ymm11,%xmm0
- .byte 196,98,125,48,208 // vpmovzxbw %xmm0,%ymm10
- .byte 197,254,127,76,36,160 // vmovdqu %ymm1,-0x60(%rsp)
- .byte 197,245,253,193 // vpaddw %ymm1,%ymm1,%ymm0
- .byte 197,101,253,227 // vpaddw %ymm3,%ymm3,%ymm12
- .byte 197,29,101,244 // vpcmpgtw %ymm4,%ymm12,%ymm14
- .byte 197,254,127,124,36,64 // vmovdqu %ymm7,0x40(%rsp)
- .byte 197,253,101,199 // vpcmpgtw %ymm7,%ymm0,%ymm0
- .byte 197,254,127,116,36,32 // vmovdqu %ymm6,0x20(%rsp)
- .byte 197,45,249,230 // vpsubw %ymm6,%ymm10,%ymm12
- .byte 197,69,249,249 // vpsubw %ymm1,%ymm7,%ymm15
- .byte 196,65,29,213,231 // vpmullw %ymm15,%ymm12,%ymm12
- .byte 197,45,213,255 // vpmullw %ymm7,%ymm10,%ymm15
- .byte 196,65,29,253,228 // vpaddw %ymm12,%ymm12,%ymm12
- .byte 196,65,5,249,228 // vpsubw %ymm12,%ymm15,%ymm12
- .byte 197,77,213,249 // vpmullw %ymm1,%ymm6,%ymm15
- .byte 196,65,5,253,255 // vpaddw %ymm15,%ymm15,%ymm15
- .byte 196,195,5,76,196,0 // vpblendvb %ymm0,%ymm12,%ymm15,%ymm0
- .byte 197,254,127,4,36 // vmovdqu %ymm0,(%rsp)
- .byte 197,126,127,76,36,192 // vmovdqu %ymm9,-0x40(%rsp)
- .byte 197,253,111,250 // vmovdqa %ymm2,%ymm7
- .byte 196,193,69,249,193 // vpsubw %ymm9,%ymm7,%ymm0
- .byte 197,253,111,243 // vmovdqa %ymm3,%ymm6
- .byte 197,254,127,100,36,128 // vmovdqu %ymm4,-0x80(%rsp)
- .byte 197,93,249,254 // vpsubw %ymm6,%ymm4,%ymm15
- .byte 196,193,125,213,199 // vpmullw %ymm15,%ymm0,%ymm0
- .byte 197,69,213,252 // vpmullw %ymm4,%ymm7,%ymm15
- .byte 197,253,253,192 // vpaddw %ymm0,%ymm0,%ymm0
- .byte 197,133,249,192 // vpsubw %ymm0,%ymm15,%ymm0
- .byte 197,53,213,254 // vpmullw %ymm6,%ymm9,%ymm15
- .byte 196,65,5,253,255 // vpaddw %ymm15,%ymm15,%ymm15
- .byte 196,227,5,76,192,224 // vpblendvb %ymm14,%ymm0,%ymm15,%ymm0
- .byte 197,254,127,68,36,224 // vmovdqu %ymm0,-0x20(%rsp)
- .byte 196,99,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 196,66,61,0,245 // vpshufb %ymm13,%ymm8,%ymm14
- .byte 196,99,125,57,243,1 // vextracti128 $0x1,%ymm14,%xmm3
- .byte 196,226,125,48,219 // vpmovzxbw %xmm3,%ymm3
- .byte 197,125,111,221 // vmovdqa %ymm5,%ymm11
- .byte 196,99,125,57,218,1 // vextracti128 $0x1,%ymm11,%xmm2
- .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2
- .byte 196,66,37,0,253 // vpshufb %ymm13,%ymm11,%ymm15
- .byte 196,67,125,57,249,1 // vextracti128 $0x1,%ymm15,%xmm9
- .byte 196,66,125,48,201 // vpmovzxbw %xmm9,%ymm9
- .byte 197,181,249,194 // vpsubw %ymm2,%ymm9,%ymm0
- .byte 197,101,249,236 // vpsubw %ymm4,%ymm3,%ymm13
- .byte 196,193,125,213,197 // vpmullw %ymm13,%ymm0,%ymm0
- .byte 197,253,253,192 // vpaddw %ymm0,%ymm0,%ymm0
- .byte 197,53,213,235 // vpmullw %ymm3,%ymm9,%ymm13
- .byte 197,149,249,192 // vpsubw %ymm0,%ymm13,%ymm0
- .byte 197,93,253,236 // vpaddw %ymm4,%ymm4,%ymm13
- .byte 197,21,101,235 // vpcmpgtw %ymm3,%ymm13,%ymm13
- .byte 197,109,213,228 // vpmullw %ymm4,%ymm2,%ymm12
- .byte 196,65,29,253,228 // vpaddw %ymm12,%ymm12,%ymm12
- .byte 196,227,29,76,200,208 // vpblendvb %ymm13,%ymm0,%ymm12,%ymm1
- .byte 196,66,125,48,224 // vpmovzxbw %xmm8,%ymm12
- .byte 196,66,125,48,238 // vpmovzxbw %xmm14,%ymm13
- .byte 196,66,125,48,247 // vpmovzxbw %xmm15,%ymm14
- .byte 196,66,125,48,251 // vpmovzxbw %xmm11,%ymm15
- .byte 196,193,13,249,199 // vpsubw %ymm15,%ymm14,%ymm0
- .byte 196,65,21,249,196 // vpsubw %ymm12,%ymm13,%ymm8
- .byte 196,193,125,213,192 // vpmullw %ymm8,%ymm0,%ymm0
- .byte 197,253,253,192 // vpaddw %ymm0,%ymm0,%ymm0
- .byte 196,65,13,213,197 // vpmullw %ymm13,%ymm14,%ymm8
- .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
- .byte 196,65,29,253,196 // vpaddw %ymm12,%ymm12,%ymm8
- .byte 196,65,61,101,197 // vpcmpgtw %ymm13,%ymm8,%ymm8
- .byte 196,193,5,213,236 // vpmullw %ymm12,%ymm15,%ymm5
- .byte 197,213,253,237 // vpaddw %ymm5,%ymm5,%ymm5
- .byte 196,227,85,76,192,128 // vpblendvb %ymm8,%ymm0,%ymm5,%ymm0
- .byte 196,226,125,121,45,3,216,0,0 // vpbroadcastw 0xd803(%rip),%ymm5 # 335a0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
- .byte 197,13,239,197 // vpxor %ymm5,%ymm14,%ymm8
- .byte 196,65,61,213,196 // vpmullw %ymm12,%ymm8,%ymm8
- .byte 197,53,239,205 // vpxor %ymm5,%ymm9,%ymm9
- .byte 197,181,213,228 // vpmullw %ymm4,%ymm9,%ymm4
- .byte 197,69,239,205 // vpxor %ymm5,%ymm7,%ymm9
- .byte 197,53,213,206 // vpmullw %ymm6,%ymm9,%ymm9
- .byte 197,45,239,213 // vpxor %ymm5,%ymm10,%ymm10
- .byte 197,45,213,84,36,160 // vpmullw -0x60(%rsp),%ymm10,%ymm10
- .byte 197,213,239,124,36,64 // vpxor 0x40(%rsp),%ymm5,%ymm7
- .byte 197,213,239,116,36,128 // vpxor -0x80(%rsp),%ymm5,%ymm6
- .byte 197,229,239,221 // vpxor %ymm5,%ymm3,%ymm3
- .byte 197,149,239,237 // vpxor %ymm5,%ymm13,%ymm5
- .byte 196,193,85,213,239 // vpmullw %ymm15,%ymm5,%ymm5
- .byte 196,193,85,253,232 // vpaddw %ymm8,%ymm5,%ymm5
- .byte 197,229,213,210 // vpmullw %ymm2,%ymm3,%ymm2
- .byte 197,237,253,212 // vpaddw %ymm4,%ymm2,%ymm2
- .byte 197,205,213,92,36,192 // vpmullw -0x40(%rsp),%ymm6,%ymm3
- .byte 196,193,101,253,217 // vpaddw %ymm9,%ymm3,%ymm3
- .byte 197,197,213,100,36,32 // vpmullw 0x20(%rsp),%ymm7,%ymm4
- .byte 196,193,93,253,226 // vpaddw %ymm10,%ymm4,%ymm4
- .byte 196,226,125,121,53,157,215,0,0 // vpbroadcastw 0xd79d(%rip),%ymm6 # 335a2 <_sk_srcover_rgba_8888_sse2_lowp+0xb26>
- .byte 197,221,253,230 // vpaddw %ymm6,%ymm4,%ymm4
- .byte 197,221,253,36,36 // vpaddw (%rsp),%ymm4,%ymm4
- .byte 197,229,253,222 // vpaddw %ymm6,%ymm3,%ymm3
- .byte 197,229,253,92,36,224 // vpaddw -0x20(%rsp),%ymm3,%ymm3
- .byte 197,237,253,214 // vpaddw %ymm6,%ymm2,%ymm2
- .byte 197,245,253,202 // vpaddw %ymm2,%ymm1,%ymm1
- .byte 197,213,253,214 // vpaddw %ymm6,%ymm5,%ymm2
- .byte 197,253,253,194 // vpaddw %ymm2,%ymm0,%ymm0
- .byte 196,226,125,121,21,115,215,0,0 // vpbroadcastw 0xd773(%rip),%ymm2 # 335a4 <_sk_srcover_rgba_8888_sse2_lowp+0xb28>
- .byte 197,253,228,194 // vpmulhuw %ymm2,%ymm0,%ymm0
- .byte 197,245,228,202 // vpmulhuw %ymm2,%ymm1,%ymm1
- .byte 197,229,228,218 // vpmulhuw %ymm2,%ymm3,%ymm3
- .byte 197,229,113,211,7 // vpsrlw $0x7,%ymm3,%ymm3
- .byte 197,221,228,210 // vpmulhuw %ymm2,%ymm4,%ymm2
- .byte 197,237,113,210,7 // vpsrlw $0x7,%ymm2,%ymm2
- .byte 196,227,101,56,226,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm4
- .byte 196,227,101,70,210,49 // vperm2i128 $0x31,%ymm2,%ymm3,%ymm2
- .byte 197,229,113,208,7 // vpsrlw $0x7,%ymm0,%ymm3
- .byte 197,245,113,209,7 // vpsrlw $0x7,%ymm1,%ymm1
- .byte 197,221,103,194 // vpackuswb %ymm2,%ymm4,%ymm0
- .byte 196,227,101,56,209,1 // vinserti128 $0x1,%xmm1,%ymm3,%ymm2
- .byte 196,227,101,70,201,49 // vperm2i128 $0x31,%ymm1,%ymm3,%ymm1
- .byte 197,237,103,201 // vpackuswb %ymm1,%ymm2,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,84,36,96 // vmovups 0x60(%rsp),%ymm2
- .byte 197,125,127,219 // vmovdqa %ymm11,%ymm3
- .byte 72,129,196,152,0,0,0 // add $0x98,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_hsw_8bit
-.globl _sk_overlay_hsw_8bit
-FUNCTION(_sk_overlay_hsw_8bit)
-_sk_overlay_hsw_8bit:
- .byte 72,129,236,152,0,0,0 // sub $0x98,%rsp
- .byte 197,253,111,243 // vmovdqa %ymm3,%ymm6
- .byte 197,253,111,233 // vmovdqa %ymm1,%ymm5
- .byte 196,227,125,57,196,1 // vextracti128 $0x1,%ymm0,%xmm4
- .byte 196,226,125,48,204 // vpmovzxbw %xmm4,%ymm1
- .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3
- .byte 197,125,111,45,15,215,0,0 // vmovdqa 0xd70f(%rip),%ymm13 # 335c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
- .byte 196,194,125,0,197 // vpshufb %ymm13,%ymm0,%ymm0
- .byte 196,226,125,48,248 // vpmovzxbw %xmm0,%ymm7
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,98,125,48,200 // vpmovzxbw %xmm0,%ymm9
- .byte 197,254,127,84,36,96 // vmovdqu %ymm2,0x60(%rsp)
- .byte 196,227,125,57,208,1 // vextracti128 $0x1,%ymm2,%xmm0
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 196,98,125,48,194 // vpmovzxbw %xmm2,%ymm8
- .byte 196,66,109,0,221 // vpshufb %ymm13,%ymm2,%ymm11
- .byte 196,66,125,48,211 // vpmovzxbw %xmm11,%ymm10
- .byte 196,99,125,57,220,1 // vextracti128 $0x1,%ymm11,%xmm4
- .byte 196,98,125,48,220 // vpmovzxbw %xmm4,%ymm11
- .byte 197,253,253,224 // vpaddw %ymm0,%ymm0,%ymm4
- .byte 196,65,61,253,224 // vpaddw %ymm8,%ymm8,%ymm12
- .byte 196,65,29,101,242 // vpcmpgtw %ymm10,%ymm12,%ymm14
- .byte 196,193,93,101,227 // vpcmpgtw %ymm11,%ymm4,%ymm4
- .byte 197,37,249,224 // vpsubw %ymm0,%ymm11,%ymm12
- .byte 197,254,127,68,36,32 // vmovdqu %ymm0,0x20(%rsp)
- .byte 197,254,127,76,36,160 // vmovdqu %ymm1,-0x60(%rsp)
- .byte 197,126,127,76,36,64 // vmovdqu %ymm9,0x40(%rsp)
- .byte 197,53,249,249 // vpsubw %ymm1,%ymm9,%ymm15
- .byte 196,65,29,213,231 // vpmullw %ymm15,%ymm12,%ymm12
- .byte 196,65,37,213,249 // vpmullw %ymm9,%ymm11,%ymm15
- .byte 196,65,29,253,228 // vpaddw %ymm12,%ymm12,%ymm12
- .byte 196,65,5,249,228 // vpsubw %ymm12,%ymm15,%ymm12
- .byte 197,125,213,249 // vpmullw %ymm1,%ymm0,%ymm15
- .byte 196,65,5,253,255 // vpaddw %ymm15,%ymm15,%ymm15
- .byte 196,195,5,76,196,64 // vpblendvb %ymm4,%ymm12,%ymm15,%ymm0
- .byte 197,254,127,4,36 // vmovdqu %ymm0,(%rsp)
- .byte 197,126,127,68,36,192 // vmovdqu %ymm8,-0x40(%rsp)
- .byte 196,193,45,249,224 // vpsubw %ymm8,%ymm10,%ymm4
- .byte 197,254,127,124,36,128 // vmovdqu %ymm7,-0x80(%rsp)
- .byte 197,69,249,251 // vpsubw %ymm3,%ymm7,%ymm15
- .byte 196,193,93,213,231 // vpmullw %ymm15,%ymm4,%ymm4
- .byte 197,45,213,255 // vpmullw %ymm7,%ymm10,%ymm15
- .byte 197,221,253,228 // vpaddw %ymm4,%ymm4,%ymm4
- .byte 197,133,249,228 // vpsubw %ymm4,%ymm15,%ymm4
- .byte 197,61,213,251 // vpmullw %ymm3,%ymm8,%ymm15
- .byte 197,125,111,195 // vmovdqa %ymm3,%ymm8
- .byte 196,65,5,253,255 // vpaddw %ymm15,%ymm15,%ymm15
- .byte 196,227,5,76,196,224 // vpblendvb %ymm14,%ymm4,%ymm15,%ymm0
- .byte 197,254,127,68,36,224 // vmovdqu %ymm0,-0x20(%rsp)
- .byte 197,253,111,197 // vmovdqa %ymm5,%ymm0
- .byte 196,227,125,57,197,1 // vextracti128 $0x1,%ymm0,%xmm5
- .byte 196,226,125,48,237 // vpmovzxbw %xmm5,%ymm5
- .byte 196,66,125,0,245 // vpshufb %ymm13,%ymm0,%ymm14
- .byte 197,253,111,224 // vmovdqa %ymm0,%ymm4
- .byte 196,99,125,57,243,1 // vextracti128 $0x1,%ymm14,%xmm3
- .byte 196,226,125,48,219 // vpmovzxbw %xmm3,%ymm3
- .byte 197,253,111,254 // vmovdqa %ymm6,%ymm7
- .byte 196,227,125,57,250,1 // vextracti128 $0x1,%ymm7,%xmm2
- .byte 196,226,125,48,210 // vpmovzxbw %xmm2,%ymm2
- .byte 196,66,69,0,253 // vpshufb %ymm13,%ymm7,%ymm15
- .byte 196,67,125,57,253,1 // vextracti128 $0x1,%ymm15,%xmm13
- .byte 196,66,125,48,237 // vpmovzxbw %xmm13,%ymm13
- .byte 197,149,249,194 // vpsubw %ymm2,%ymm13,%ymm0
- .byte 197,101,249,205 // vpsubw %ymm5,%ymm3,%ymm9
- .byte 196,193,125,213,193 // vpmullw %ymm9,%ymm0,%ymm0
- .byte 197,253,253,192 // vpaddw %ymm0,%ymm0,%ymm0
- .byte 197,21,213,203 // vpmullw %ymm3,%ymm13,%ymm9
- .byte 197,181,249,192 // vpsubw %ymm0,%ymm9,%ymm0
- .byte 197,109,253,202 // vpaddw %ymm2,%ymm2,%ymm9
- .byte 196,65,53,101,205 // vpcmpgtw %ymm13,%ymm9,%ymm9
- .byte 197,237,213,245 // vpmullw %ymm5,%ymm2,%ymm6
- .byte 197,205,253,246 // vpaddw %ymm6,%ymm6,%ymm6
- .byte 196,227,77,76,200,144 // vpblendvb %ymm9,%ymm0,%ymm6,%ymm1
- .byte 196,226,125,48,244 // vpmovzxbw %xmm4,%ymm6
- .byte 196,66,125,48,206 // vpmovzxbw %xmm14,%ymm9
- .byte 196,66,125,48,247 // vpmovzxbw %xmm15,%ymm14
- .byte 196,98,125,48,255 // vpmovzxbw %xmm7,%ymm15
- .byte 196,193,13,249,199 // vpsubw %ymm15,%ymm14,%ymm0
- .byte 197,53,249,230 // vpsubw %ymm6,%ymm9,%ymm12
- .byte 196,193,125,213,196 // vpmullw %ymm12,%ymm0,%ymm0
- .byte 197,253,253,192 // vpaddw %ymm0,%ymm0,%ymm0
- .byte 196,65,13,213,225 // vpmullw %ymm9,%ymm14,%ymm12
- .byte 197,157,249,192 // vpsubw %ymm0,%ymm12,%ymm0
- .byte 196,65,5,253,231 // vpaddw %ymm15,%ymm15,%ymm12
- .byte 196,65,29,101,230 // vpcmpgtw %ymm14,%ymm12,%ymm12
- .byte 197,133,213,230 // vpmullw %ymm6,%ymm15,%ymm4
- .byte 197,221,253,228 // vpaddw %ymm4,%ymm4,%ymm4
- .byte 196,227,93,76,192,192 // vpblendvb %ymm12,%ymm0,%ymm4,%ymm0
- .byte 196,226,125,121,37,153,213,0,0 // vpbroadcastw 0xd599(%rip),%ymm4 # 335e0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
- .byte 197,13,239,228 // vpxor %ymm4,%ymm14,%ymm12
- .byte 197,157,213,246 // vpmullw %ymm6,%ymm12,%ymm6
- .byte 197,21,239,228 // vpxor %ymm4,%ymm13,%ymm12
- .byte 197,157,213,237 // vpmullw %ymm5,%ymm12,%ymm5
- .byte 197,45,239,212 // vpxor %ymm4,%ymm10,%ymm10
- .byte 196,65,45,213,208 // vpmullw %ymm8,%ymm10,%ymm10
- .byte 197,37,239,220 // vpxor %ymm4,%ymm11,%ymm11
- .byte 197,37,213,92,36,160 // vpmullw -0x60(%rsp),%ymm11,%ymm11
- .byte 197,93,239,100,36,64 // vpxor 0x40(%rsp),%ymm4,%ymm12
- .byte 197,93,239,108,36,128 // vpxor -0x80(%rsp),%ymm4,%ymm13
- .byte 197,229,239,220 // vpxor %ymm4,%ymm3,%ymm3
- .byte 197,181,239,228 // vpxor %ymm4,%ymm9,%ymm4
- .byte 196,193,93,213,231 // vpmullw %ymm15,%ymm4,%ymm4
- .byte 197,221,253,230 // vpaddw %ymm6,%ymm4,%ymm4
- .byte 197,229,213,210 // vpmullw %ymm2,%ymm3,%ymm2
- .byte 197,237,253,213 // vpaddw %ymm5,%ymm2,%ymm2
- .byte 197,149,213,92,36,192 // vpmullw -0x40(%rsp),%ymm13,%ymm3
- .byte 196,193,101,253,218 // vpaddw %ymm10,%ymm3,%ymm3
- .byte 197,157,213,108,36,32 // vpmullw 0x20(%rsp),%ymm12,%ymm5
- .byte 196,193,85,253,235 // vpaddw %ymm11,%ymm5,%ymm5
- .byte 196,226,125,121,53,52,213,0,0 // vpbroadcastw 0xd534(%rip),%ymm6 # 335e2 <_sk_srcover_rgba_8888_sse2_lowp+0xb66>
- .byte 197,213,253,238 // vpaddw %ymm6,%ymm5,%ymm5
- .byte 197,213,253,44,36 // vpaddw (%rsp),%ymm5,%ymm5
- .byte 197,229,253,222 // vpaddw %ymm6,%ymm3,%ymm3
- .byte 197,229,253,92,36,224 // vpaddw -0x20(%rsp),%ymm3,%ymm3
- .byte 197,237,253,214 // vpaddw %ymm6,%ymm2,%ymm2
- .byte 197,245,253,202 // vpaddw %ymm2,%ymm1,%ymm1
- .byte 197,221,253,214 // vpaddw %ymm6,%ymm4,%ymm2
- .byte 197,253,253,194 // vpaddw %ymm2,%ymm0,%ymm0
- .byte 196,226,125,121,21,10,213,0,0 // vpbroadcastw 0xd50a(%rip),%ymm2 # 335e4 <_sk_srcover_rgba_8888_sse2_lowp+0xb68>
- .byte 197,253,228,194 // vpmulhuw %ymm2,%ymm0,%ymm0
- .byte 197,245,228,202 // vpmulhuw %ymm2,%ymm1,%ymm1
- .byte 197,229,228,218 // vpmulhuw %ymm2,%ymm3,%ymm3
- .byte 197,229,113,211,7 // vpsrlw $0x7,%ymm3,%ymm3
- .byte 197,213,228,210 // vpmulhuw %ymm2,%ymm5,%ymm2
- .byte 197,237,113,210,7 // vpsrlw $0x7,%ymm2,%ymm2
- .byte 196,227,101,56,226,1 // vinserti128 $0x1,%xmm2,%ymm3,%ymm4
- .byte 196,227,101,70,210,49 // vperm2i128 $0x31,%ymm2,%ymm3,%ymm2
- .byte 197,229,113,208,7 // vpsrlw $0x7,%ymm0,%ymm3
- .byte 197,245,113,209,7 // vpsrlw $0x7,%ymm1,%ymm1
- .byte 197,221,103,194 // vpackuswb %ymm2,%ymm4,%ymm0
- .byte 196,227,101,56,209,1 // vinserti128 $0x1,%xmm1,%ymm3,%ymm2
- .byte 196,227,101,70,201,49 // vperm2i128 $0x31,%ymm1,%ymm3,%ymm1
- .byte 197,237,103,201 // vpackuswb %ymm1,%ymm2,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,84,36,96 // vmovups 0x60(%rsp),%ymm2
- .byte 197,253,111,223 // vmovdqa %ymm7,%ymm3
- .byte 72,129,196,152,0,0,0 // add $0x98,%rsp
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
-
-HIDDEN _sk_start_pipeline_sse41_8bit
-.globl _sk_start_pipeline_sse41_8bit
-FUNCTION(_sk_start_pipeline_sse41_8bit)
-_sk_start_pipeline_sse41_8bit:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 115,83 // jae 261b6 <_sk_start_pipeline_sse41_8bit+0x82>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,8 // lea 0x8(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,35 // ja 2619c <_sk_start_pipeline_sse41_8bit+0x68>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,8 // lea 0x8(%r12),%rdx
- .byte 73,131,196,16 // add $0x10,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,225 // jbe 2617d <_sk_start_pipeline_sse41_8bit+0x49>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,9 // je 261ad <_sk_start_pipeline_sse41_8bit+0x79>
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,255,195 // inc %rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,185 // jne 2616f <_sk_start_pipeline_sse41_8bit+0x3b>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 195 // retq
-
-HIDDEN _sk_just_return_sse41_8bit
-.globl _sk_just_return_sse41_8bit
-FUNCTION(_sk_just_return_sse41_8bit)
-_sk_just_return_sse41_8bit:
- .byte 195 // retq
-
-HIDDEN _sk_uniform_color_sse41_8bit
-.globl _sk_uniform_color_sse41_8bit
-FUNCTION(_sk_uniform_color_sse41_8bit)
-_sk_uniform_color_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,110,64,16 // movd 0x10(%rax),%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_sse41_8bit
-.globl _sk_set_rgb_sse41_8bit
-FUNCTION(_sk_set_rgb_sse41_8bit)
-_sk_set_rgb_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,37,80,213,0,0 // movss 0xd550(%rip),%xmm4 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 243,15,16,40 // movss (%rax),%xmm5
- .byte 243,15,89,236 // mulss %xmm4,%xmm5
- .byte 243,76,15,44,197 // cvttss2si %xmm5,%r8
- .byte 243,15,16,104,4 // movss 0x4(%rax),%xmm5
- .byte 243,15,89,236 // mulss %xmm4,%xmm5
- .byte 243,76,15,44,205 // cvttss2si %xmm5,%r9
- .byte 65,193,225,8 // shl $0x8,%r9d
- .byte 69,9,193 // or %r8d,%r9d
- .byte 243,15,89,96,8 // mulss 0x8(%rax),%xmm4
- .byte 243,72,15,44,196 // cvttss2si %xmm4,%rax
- .byte 193,224,16 // shl $0x10,%eax
- .byte 68,9,200 // or %r9d,%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,111,45,249,221,0,0 // movdqa 0xddf9(%rip),%xmm5 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 102,15,219,205 // pand %xmm5,%xmm1
- .byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 102,15,235,196 // por %xmm4,%xmm0
- .byte 102,15,235,204 // por %xmm4,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_sse41_8bit
-.globl _sk_premul_sse41_8bit
-FUNCTION(_sk_premul_sse41_8bit)
-_sk_premul_sse41_8bit:
- .byte 102,68,15,111,5,236,221,0,0 // movdqa 0xddec(%rip),%xmm8 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,68,15,56,48,208 // pmovzxbw %xmm0,%xmm10
- .byte 102,65,15,56,0,192 // pshufb %xmm8,%xmm0
- .byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
- .byte 102,68,15,56,48,201 // pmovzxbw %xmm1,%xmm9
- .byte 102,65,15,56,0,200 // pshufb %xmm8,%xmm1
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,68,15,111,5,167,221,0,0 // movdqa 0xdda7(%rip),%xmm8 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 102,65,15,235,200 // por %xmm8,%xmm1
- .byte 102,65,15,235,192 // por %xmm8,%xmm0
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,15,56,48,201 // pmovzxbw %xmm1,%xmm1
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,15,213,247 // pmullw %xmm7,%xmm6
- .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
- .byte 102,15,213,229 // pmullw %xmm5,%xmm4
- .byte 102,15,253,229 // paddw %xmm5,%xmm4
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,15,253,247 // paddw %xmm7,%xmm6
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,206 // packuswb %xmm6,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,196 // packuswb %xmm4,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_sse41_8bit
-.globl _sk_swap_rb_sse41_8bit
-FUNCTION(_sk_swap_rb_sse41_8bit)
-_sk_swap_rb_sse41_8bit:
- .byte 102,15,111,37,83,221,0,0 // movdqa 0xdd53(%rip),%xmm4 # 34040 <_sk_srcover_rgba_8888_sse2_lowp+0x15c4>
- .byte 102,15,56,0,196 // pshufb %xmm4,%xmm0
- .byte 102,15,56,0,204 // pshufb %xmm4,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_sse41_8bit
-.globl _sk_invert_sse41_8bit
-FUNCTION(_sk_invert_sse41_8bit)
-_sk_invert_sse41_8bit:
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,239,196 // pxor %xmm4,%xmm0
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_8888_sse41_8bit
-.globl _sk_load_8888_sse41_8bit
-FUNCTION(_sk_load_8888_sse41_8bit)
-_sk_load_8888_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,17 // jne 26338 <_sk_load_8888_sse41_8bit+0x2d>
- .byte 243,67,15,111,4,152 // movdqu (%r8,%r11,4),%xmm0
- .byte 243,67,15,111,76,152,16 // movdqu 0x10(%r8,%r11,4),%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,228 // ja 26334 <_sk_load_8888_sse41_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,81,0,0,0 // lea 0x51(%rip),%r10 # 263ac <_sk_load_8888_sse41_8bit+0xa1>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,110,4,152 // movd (%r8,%r11,4),%xmm0
- .byte 235,200 // jmp 26334 <_sk_load_8888_sse41_8bit+0x29>
- .byte 102,67,15,110,68,152,8 // movd 0x8(%r8,%r11,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 243,67,15,126,36,152 // movq (%r8,%r11,4),%xmm4
- .byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
- .byte 235,174 // jmp 26334 <_sk_load_8888_sse41_8bit+0x29>
- .byte 102,67,15,110,68,152,24 // movd 0x18(%r8,%r11,4),%xmm0
- .byte 102,15,112,200,69 // pshufd $0x45,%xmm0,%xmm1
- .byte 102,67,15,58,34,76,152,20,1 // pinsrd $0x1,0x14(%r8,%r11,4),%xmm1
- .byte 102,67,15,58,34,76,152,16,0 // pinsrd $0x0,0x10(%r8,%r11,4),%xmm1
- .byte 243,67,15,111,4,152 // movdqu (%r8,%r11,4),%xmm0
- .byte 235,136 // jmp 26334 <_sk_load_8888_sse41_8bit+0x29>
- .byte 184,255,255,255,204 // mov $0xccffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 248 // clc
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_sse41_8bit
-.globl _sk_load_8888_dst_sse41_8bit
-FUNCTION(_sk_load_8888_dst_sse41_8bit)
-_sk_load_8888_dst_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,17 // jne 263f5 <_sk_load_8888_dst_sse41_8bit+0x2d>
- .byte 243,67,15,111,20,152 // movdqu (%r8,%r11,4),%xmm2
- .byte 243,67,15,111,92,152,16 // movdqu 0x10(%r8,%r11,4),%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,228 // ja 263f1 <_sk_load_8888_dst_sse41_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # 2646c <_sk_load_8888_dst_sse41_8bit+0xa4>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,110,20,152 // movd (%r8,%r11,4),%xmm2
- .byte 235,200 // jmp 263f1 <_sk_load_8888_dst_sse41_8bit+0x29>
- .byte 102,67,15,110,84,152,8 // movd 0x8(%r8,%r11,4),%xmm2
- .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2
- .byte 243,67,15,126,36,152 // movq (%r8,%r11,4),%xmm4
- .byte 102,15,58,14,212,15 // pblendw $0xf,%xmm4,%xmm2
- .byte 235,174 // jmp 263f1 <_sk_load_8888_dst_sse41_8bit+0x29>
- .byte 102,67,15,110,84,152,24 // movd 0x18(%r8,%r11,4),%xmm2
- .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
- .byte 102,67,15,58,34,92,152,20,1 // pinsrd $0x1,0x14(%r8,%r11,4),%xmm3
- .byte 102,67,15,58,34,92,152,16,0 // pinsrd $0x0,0x10(%r8,%r11,4),%xmm3
- .byte 243,67,15,111,20,152 // movdqu (%r8,%r11,4),%xmm2
- .byte 235,136 // jmp 263f1 <_sk_load_8888_dst_sse41_8bit+0x29>
- .byte 15,31,0 // nopl (%rax)
- .byte 181,255 // mov $0xff,%ch
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189,255,255,255,245 // mov $0xf5ffffff,%ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 236 // in (%dx),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_8888_sse41_8bit
-.globl _sk_store_8888_sse41_8bit
-FUNCTION(_sk_store_8888_sse41_8bit)
-_sk_store_8888_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,17 // jne 264b5 <_sk_store_8888_sse41_8bit+0x2d>
- .byte 243,67,15,127,4,152 // movdqu %xmm0,(%r8,%r11,4)
- .byte 243,67,15,127,76,152,16 // movdqu %xmm1,0x10(%r8,%r11,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 264b1 <_sk_store_8888_sse41_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 26514 <_sk_store_8888_sse41_8bit+0x8c>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,126,4,152 // movd %xmm0,(%r8,%r11,4)
- .byte 235,208 // jmp 264b1 <_sk_store_8888_sse41_8bit+0x29>
- .byte 102,67,15,58,22,68,152,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%r11,4)
- .byte 102,67,15,214,4,152 // movq %xmm0,(%r8,%r11,4)
- .byte 235,191 // jmp 264b1 <_sk_store_8888_sse41_8bit+0x29>
- .byte 102,67,15,58,22,76,152,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%r11,4)
- .byte 102,67,15,58,22,76,152,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%r11,4)
- .byte 102,67,15,126,76,152,16 // movd %xmm1,0x10(%r8,%r11,4)
- .byte 243,67,15,127,4,152 // movdqu %xmm0,(%r8,%r11,4)
- .byte 235,158 // jmp 264b1 <_sk_store_8888_sse41_8bit+0x29>
- .byte 144 // nop
- .byte 197,255,255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,247 // push %rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,240 // push %rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_sse41_8bit
-.globl _sk_load_bgra_sse41_8bit
-FUNCTION(_sk_load_bgra_sse41_8bit)
-_sk_load_bgra_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,35 // jne 2656f <_sk_load_bgra_sse41_8bit+0x3f>
- .byte 243,67,15,111,4,152 // movdqu (%r8,%r11,4),%xmm0
- .byte 243,67,15,111,76,152,16 // movdqu 0x10(%r8,%r11,4),%xmm1
- .byte 102,15,111,37,223,218,0,0 // movdqa 0xdadf(%rip),%xmm4 # 34040 <_sk_srcover_rgba_8888_sse2_lowp+0x15c4>
- .byte 102,15,56,0,196 // pshufb %xmm4,%xmm0
- .byte 102,15,56,0,204 // pshufb %xmm4,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,210 // ja 26559 <_sk_load_bgra_sse41_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 265e8 <_sk_load_bgra_sse41_8bit+0xb8>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,110,4,152 // movd (%r8,%r11,4),%xmm0
- .byte 235,182 // jmp 26559 <_sk_load_bgra_sse41_8bit+0x29>
- .byte 102,67,15,110,68,152,8 // movd 0x8(%r8,%r11,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 243,67,15,126,36,152 // movq (%r8,%r11,4),%xmm4
- .byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
- .byte 235,156 // jmp 26559 <_sk_load_bgra_sse41_8bit+0x29>
- .byte 102,67,15,110,68,152,24 // movd 0x18(%r8,%r11,4),%xmm0
- .byte 102,15,112,200,69 // pshufd $0x45,%xmm0,%xmm1
- .byte 102,67,15,58,34,76,152,20,1 // pinsrd $0x1,0x14(%r8,%r11,4),%xmm1
- .byte 102,67,15,58,34,76,152,16,0 // pinsrd $0x0,0x10(%r8,%r11,4),%xmm1
- .byte 243,67,15,111,4,152 // movdqu (%r8,%r11,4),%xmm0
- .byte 233,115,255,255,255 // jmpq 26559 <_sk_load_bgra_sse41_8bit+0x29>
- .byte 102,144 // xchg %ax,%ax
- .byte 179,255 // mov $0xff,%bl
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 187,255,255,255,243 // mov $0xf3ffffff,%ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_sse41_8bit
-.globl _sk_load_bgra_dst_sse41_8bit
-FUNCTION(_sk_load_bgra_dst_sse41_8bit)
-_sk_load_bgra_dst_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,35 // jne 26643 <_sk_load_bgra_dst_sse41_8bit+0x3f>
- .byte 243,67,15,111,20,152 // movdqu (%r8,%r11,4),%xmm2
- .byte 243,67,15,111,92,152,16 // movdqu 0x10(%r8,%r11,4),%xmm3
- .byte 102,15,111,37,11,218,0,0 // movdqa 0xda0b(%rip),%xmm4 # 34040 <_sk_srcover_rgba_8888_sse2_lowp+0x15c4>
- .byte 102,15,56,0,212 // pshufb %xmm4,%xmm2
- .byte 102,15,56,0,220 // pshufb %xmm4,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,210 // ja 2662d <_sk_load_bgra_dst_sse41_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 266bc <_sk_load_bgra_dst_sse41_8bit+0xb8>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,110,20,152 // movd (%r8,%r11,4),%xmm2
- .byte 235,182 // jmp 2662d <_sk_load_bgra_dst_sse41_8bit+0x29>
- .byte 102,67,15,110,84,152,8 // movd 0x8(%r8,%r11,4),%xmm2
- .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2
- .byte 243,67,15,126,36,152 // movq (%r8,%r11,4),%xmm4
- .byte 102,15,58,14,212,15 // pblendw $0xf,%xmm4,%xmm2
- .byte 235,156 // jmp 2662d <_sk_load_bgra_dst_sse41_8bit+0x29>
- .byte 102,67,15,110,84,152,24 // movd 0x18(%r8,%r11,4),%xmm2
- .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
- .byte 102,67,15,58,34,92,152,20,1 // pinsrd $0x1,0x14(%r8,%r11,4),%xmm3
- .byte 102,67,15,58,34,92,152,16,0 // pinsrd $0x0,0x10(%r8,%r11,4),%xmm3
- .byte 243,67,15,111,20,152 // movdqu (%r8,%r11,4),%xmm2
- .byte 233,115,255,255,255 // jmpq 2662d <_sk_load_bgra_dst_sse41_8bit+0x29>
- .byte 102,144 // xchg %ax,%ax
- .byte 179,255 // mov $0xff,%bl
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 187,255,255,255,243 // mov $0xf3ffffff,%ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_bgra_sse41_8bit
-.globl _sk_store_bgra_sse41_8bit
-FUNCTION(_sk_store_bgra_sse41_8bit)
-_sk_store_bgra_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 102,15,111,53,73,217,0,0 // movdqa 0xd949(%rip),%xmm6 # 34040 <_sk_srcover_rgba_8888_sse2_lowp+0x15c4>
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,230 // pshufb %xmm6,%xmm4
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,17 // jne 2671f <_sk_store_bgra_sse41_8bit+0x47>
- .byte 243,67,15,127,36,152 // movdqu %xmm4,(%r8,%r11,4)
- .byte 243,67,15,127,108,152,16 // movdqu %xmm5,0x10(%r8,%r11,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 2671b <_sk_store_bgra_sse41_8bit+0x43>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,70,0,0,0 // lea 0x46(%rip),%r10 # 26780 <_sk_store_bgra_sse41_8bit+0xa8>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,126,36,152 // movd %xmm4,(%r8,%r11,4)
- .byte 235,208 // jmp 2671b <_sk_store_bgra_sse41_8bit+0x43>
- .byte 102,67,15,58,22,100,152,8,2 // pextrd $0x2,%xmm4,0x8(%r8,%r11,4)
- .byte 102,67,15,214,36,152 // movq %xmm4,(%r8,%r11,4)
- .byte 235,191 // jmp 2671b <_sk_store_bgra_sse41_8bit+0x43>
- .byte 102,67,15,58,22,108,152,24,2 // pextrd $0x2,%xmm5,0x18(%r8,%r11,4)
- .byte 102,67,15,58,22,108,152,20,1 // pextrd $0x1,%xmm5,0x14(%r8,%r11,4)
- .byte 102,67,15,126,108,152,16 // movd %xmm5,0x10(%r8,%r11,4)
- .byte 243,67,15,127,36,152 // movdqu %xmm4,(%r8,%r11,4)
- .byte 235,158 // jmp 2671b <_sk_store_bgra_sse41_8bit+0x43>
- .byte 15,31,0 // nopl (%rax)
- .byte 195 // retq
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,203 // dec %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,245 // push %rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_565_sse41_8bit
-.globl _sk_store_565_sse41_8bit
-FUNCTION(_sk_store_565_sse41_8bit)
-_sk_store_565_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 102,15,111,37,150,216,0,0 // movdqa 0xd896(%rip),%xmm4 # 34050 <_sk_srcover_rgba_8888_sse2_lowp+0x15d4>
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 102,15,114,244,8 // pslld $0x8,%xmm4
- .byte 102,15,114,245,8 // pslld $0x8,%xmm5
- .byte 102,15,111,53,136,216,0,0 // movdqa 0xd888(%rip),%xmm6 # 34060 <_sk_srcover_rgba_8888_sse2_lowp+0x15e4>
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 102,15,219,240 // pand %xmm0,%xmm6
- .byte 102,15,114,214,5 // psrld $0x5,%xmm6
- .byte 102,15,235,244 // por %xmm4,%xmm6
- .byte 102,15,114,215,5 // psrld $0x5,%xmm7
- .byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,45,114,216,0,0 // movdqa 0xd872(%rip),%xmm5 # 34070 <_sk_srcover_rgba_8888_sse2_lowp+0x15f4>
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,219,229 // pand %xmm5,%xmm4
- .byte 102,15,219,233 // pand %xmm1,%xmm5
- .byte 102,15,114,213,19 // psrld $0x13,%xmm5
- .byte 102,15,235,239 // por %xmm7,%xmm5
- .byte 102,15,114,212,19 // psrld $0x13,%xmm4
- .byte 102,15,235,230 // por %xmm6,%xmm4
- .byte 102,15,111,53,92,216,0,0 // movdqa 0xd85c(%rip),%xmm6 # 34080 <_sk_srcover_rgba_8888_sse2_lowp+0x1604>
- .byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
- .byte 102,15,56,0,230 // pshufb %xmm6,%xmm4
- .byte 102,15,108,229 // punpcklqdq %xmm5,%xmm4
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 26841 <_sk_store_565_sse41_8bit+0xa5>
- .byte 243,67,15,127,36,88 // movdqu %xmm4,(%r8,%r11,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 2683d <_sk_store_565_sse41_8bit+0xa1>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,72,0,0,0 // lea 0x48(%rip),%r10 # 268a4 <_sk_store_565_sse41_8bit+0x108>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,58,21,36,88,0 // pextrw $0x0,%xmm4,(%r8,%r11,2)
- .byte 235,206 // jmp 2683d <_sk_store_565_sse41_8bit+0xa1>
- .byte 102,67,15,58,21,100,88,4,2 // pextrw $0x2,%xmm4,0x4(%r8,%r11,2)
- .byte 102,67,15,126,36,88 // movd %xmm4,(%r8,%r11,2)
- .byte 235,189 // jmp 2683d <_sk_store_565_sse41_8bit+0xa1>
- .byte 102,67,15,58,21,100,88,12,6 // pextrw $0x6,%xmm4,0xc(%r8,%r11,2)
- .byte 102,67,15,58,21,100,88,10,5 // pextrw $0x5,%xmm4,0xa(%r8,%r11,2)
- .byte 102,67,15,58,21,100,88,8,4 // pextrw $0x4,%xmm4,0x8(%r8,%r11,2)
- .byte 102,67,15,214,36,88 // movq %xmm4,(%r8,%r11,2)
- .byte 235,154 // jmp 2683d <_sk_store_565_sse41_8bit+0xa1>
- .byte 144 // nop
- .byte 193,255,255 // sar $0xff,%edi
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,203 // dec %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,247 // push %rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_565_dst_sse41_8bit
-.globl _sk_load_565_dst_sse41_8bit
-FUNCTION(_sk_load_565_dst_sse41_8bit)
-_sk_load_565_dst_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,218,0,0,0 // jne 269b9 <_sk_load_565_dst_sse41_8bit+0xf9>
- .byte 243,67,15,111,20,88 // movdqu (%r8,%r11,2),%xmm2
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
- .byte 102,15,56,51,210 // pmovzxwd %xmm2,%xmm2
- .byte 102,15,111,53,68,210,0,0 // movdqa 0xd244(%rip),%xmm6 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 102,15,219,243 // pand %xmm3,%xmm6
- .byte 102,15,114,214,8 // psrld $0x8,%xmm6
- .byte 102,15,114,215,8 // psrld $0x8,%xmm7
- .byte 102,15,111,45,102,210,0,0 // movdqa 0xd266(%rip),%xmm5 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,219,229 // pand %xmm5,%xmm4
- .byte 102,15,219,235 // pand %xmm3,%xmm5
- .byte 102,15,114,245,19 // pslld $0x13,%xmm5
- .byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 102,15,114,244,19 // pslld $0x13,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 102,15,111,53,32,210,0,0 // movdqa 0xd220(%rip),%xmm6 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 102,15,114,247,5 // pslld $0x5,%xmm7
- .byte 102,68,15,111,5,74,215,0,0 // movdqa 0xd74a(%rip),%xmm8 # 340a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1624>
- .byte 102,65,15,219,216 // pand %xmm8,%xmm3
- .byte 102,15,114,211,1 // psrld $0x1,%xmm3
- .byte 102,15,235,223 // por %xmm7,%xmm3
- .byte 102,15,235,221 // por %xmm5,%xmm3
- .byte 102,15,114,213,5 // psrld $0x5,%xmm5
- .byte 102,15,219,242 // pand %xmm2,%xmm6
- .byte 102,15,114,246,5 // pslld $0x5,%xmm6
- .byte 102,65,15,219,208 // pand %xmm8,%xmm2
- .byte 102,15,114,210,1 // psrld $0x1,%xmm2
- .byte 102,15,235,214 // por %xmm6,%xmm2
- .byte 102,15,235,212 // por %xmm4,%xmm2
- .byte 102,15,114,212,5 // psrld $0x5,%xmm4
- .byte 102,15,111,53,251,214,0,0 // movdqa 0xd6fb(%rip),%xmm6 # 34090 <_sk_srcover_rgba_8888_sse2_lowp+0x1614>
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 102,15,111,53,123,214,0,0 // movdqa 0xd67b(%rip),%xmm6 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 102,15,235,214 // por %xmm6,%xmm2
- .byte 102,15,235,212 // por %xmm4,%xmm2
- .byte 102,15,235,222 // por %xmm6,%xmm3
- .byte 102,15,235,221 // por %xmm5,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,20,255,255,255 // ja 268e5 <_sk_load_565_dst_sse41_8bit+0x25>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 26a40 <_sk_load_565_dst_sse41_8bit+0x180>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,242,254,255,255 // jmpq 268e5 <_sk_load_565_dst_sse41_8bit+0x25>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,67,15,196,84,88,4,2 // pinsrw $0x2,0x4(%r8,%r11,2),%xmm2
- .byte 102,67,15,110,28,88 // movd (%r8,%r11,2),%xmm3
- .byte 102,15,58,14,211,3 // pblendw $0x3,%xmm3,%xmm2
- .byte 233,213,254,255,255 // jmpq 268e5 <_sk_load_565_dst_sse41_8bit+0x25>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,67,15,196,84,88,12,6 // pinsrw $0x6,0xc(%r8,%r11,2),%xmm2
- .byte 102,67,15,196,84,88,10,5 // pinsrw $0x5,0xa(%r8,%r11,2),%xmm2
- .byte 102,67,15,196,84,88,8,4 // pinsrw $0x4,0x8(%r8,%r11,2),%xmm2
- .byte 243,67,15,126,28,88 // movq (%r8,%r11,2),%xmm3
- .byte 102,15,58,14,211,15 // pblendw $0xf,%xmm3,%xmm2
- .byte 233,168,254,255,255 // jmpq 268e5 <_sk_load_565_dst_sse41_8bit+0x25>
- .byte 15,31,0 // nopl (%rax)
- .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 236 // in (%dx),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,228 // jmpq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_sse41_8bit
-.globl _sk_load_a8_sse41_8bit
-FUNCTION(_sk_load_a8_sse41_8bit)
-_sk_load_a8_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,38 // jne 26a9a <_sk_load_a8_sse41_8bit+0x3e>
- .byte 102,67,15,56,48,12,24 // pmovzxbw (%r8,%r11,1),%xmm1
- .byte 102,15,219,13,61,206,0,0 // pand 0xce3d(%rip),%xmm1 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
- .byte 102,15,56,0,13,31,214,0,0 // pshufb 0xd61f(%rip),%xmm1 # 340b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1634>
- .byte 102,15,114,240,24 // pslld $0x18,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,205 // ja 26a7b <_sk_load_a8_sse41_8bit+0x1f>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # 26b30 <_sk_load_a8_sse41_8bit+0xd4>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 235,174 // jmp 26a7b <_sk_load_a8_sse41_8bit+0x1f>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,58,14,200,3 // pblendw $0x3,%xmm0,%xmm1
- .byte 235,137 // jmp 26a7b <_sk_load_a8_sse41_8bit+0x1f>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,200,5 // pinsrw $0x5,%eax,%xmm1
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,200,4 // pinsrw $0x4,%eax,%xmm1
- .byte 102,67,15,110,4,24 // movd (%r8,%r11,1),%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,58,14,200,15 // pblendw $0xf,%xmm0,%xmm1
- .byte 233,78,255,255,255 // jmpq 26a7b <_sk_load_a8_sse41_8bit+0x1f>
- .byte 15,31,0 // nopl (%rax)
- .byte 146 // xchg %eax,%edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,172,255,255,255,157,255 // ljmp *-0x620001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_sse41_8bit
-.globl _sk_load_a8_dst_sse41_8bit
-FUNCTION(_sk_load_a8_dst_sse41_8bit)
-_sk_load_a8_dst_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,38 // jne 26b8a <_sk_load_a8_dst_sse41_8bit+0x3e>
- .byte 102,67,15,56,48,28,24 // pmovzxbw (%r8,%r11,1),%xmm3
- .byte 102,15,219,29,77,205,0,0 // pand 0xcd4d(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,56,51,211 // pmovzxwd %xmm3,%xmm2
- .byte 102,15,56,0,29,47,213,0,0 // pshufb 0xd52f(%rip),%xmm3 # 340b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1634>
- .byte 102,15,114,242,24 // pslld $0x18,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,205 // ja 26b6b <_sk_load_a8_dst_sse41_8bit+0x1f>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # 26c20 <_sk_load_a8_dst_sse41_8bit+0xd4>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,174 // jmp 26b6b <_sk_load_a8_dst_sse41_8bit+0x1f>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 102,15,56,48,210 // pmovzxbw %xmm2,%xmm2
- .byte 102,15,58,14,218,3 // pblendw $0x3,%xmm2,%xmm3
- .byte 235,137 // jmp 26b6b <_sk_load_a8_dst_sse41_8bit+0x1f>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,216,5 // pinsrw $0x5,%eax,%xmm3
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,216,4 // pinsrw $0x4,%eax,%xmm3
- .byte 102,67,15,110,20,24 // movd (%r8,%r11,1),%xmm2
- .byte 102,15,56,48,210 // pmovzxbw %xmm2,%xmm2
- .byte 102,15,58,14,218,15 // pblendw $0xf,%xmm2,%xmm3
- .byte 233,78,255,255,255 // jmpq 26b6b <_sk_load_a8_dst_sse41_8bit+0x1f>
- .byte 15,31,0 // nopl (%rax)
- .byte 146 // xchg %eax,%edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,172,255,255,255,157,255 // ljmp *-0x620001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_a8_sse41_8bit
-.globl _sk_store_a8_sse41_8bit
-FUNCTION(_sk_store_a8_sse41_8bit)
-_sk_store_a8_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 102,15,111,45,105,212,0,0 // movdqa 0xd469(%rip),%xmm5 # 340c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1644>
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,56,0,245 // pshufb %xmm5,%xmm6
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,229 // pshufb %xmm5,%xmm4
- .byte 102,15,108,230 // punpcklqdq %xmm6,%xmm4
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,19 // jne 26c85 <_sk_store_a8_sse41_8bit+0x49>
- .byte 102,15,56,0,37,149,211,0,0 // pshufb 0xd395(%rip),%xmm4 # 34010 <_sk_srcover_rgba_8888_sse2_lowp+0x1594>
- .byte 102,67,15,214,36,24 // movq %xmm4,(%r8,%r11,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 26c81 <_sk_store_a8_sse41_8bit+0x45>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,92,0,0,0 // lea 0x5c(%rip),%r10 # 26cfc <_sk_store_a8_sse41_8bit+0xc0>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,58,20,36,24,0 // pextrb $0x0,%xmm4,(%r8,%r11,1)
- .byte 235,206 // jmp 26c81 <_sk_store_a8_sse41_8bit+0x45>
- .byte 102,67,15,58,20,100,24,2,4 // pextrb $0x4,%xmm4,0x2(%r8,%r11,1)
- .byte 102,15,56,0,37,11,204,0,0 // pshufb 0xcc0b(%rip),%xmm4 # 338d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
- .byte 102,67,15,58,21,36,24,0 // pextrw $0x0,%xmm4,(%r8,%r11,1)
- .byte 235,178 // jmp 26c81 <_sk_store_a8_sse41_8bit+0x45>
- .byte 102,67,15,58,20,100,24,6,12 // pextrb $0xc,%xmm4,0x6(%r8,%r11,1)
- .byte 102,67,15,58,20,100,24,5,10 // pextrb $0xa,%xmm4,0x5(%r8,%r11,1)
- .byte 102,67,15,58,20,100,24,4,8 // pextrb $0x8,%xmm4,0x4(%r8,%r11,1)
- .byte 102,15,56,0,37,237,203,0,0 // pshufb 0xcbed(%rip),%xmm4 # 338e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
- .byte 102,67,15,126,36,24 // movd %xmm4,(%r8,%r11,1)
- .byte 235,134 // jmp 26c81 <_sk_store_a8_sse41_8bit+0x45>
- .byte 144 // nop
- .byte 173 // lods %ds:(%rsi),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,183,255,255,255,238 // pushq -0x11000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_sse41_8bit
-.globl _sk_load_g8_sse41_8bit
-FUNCTION(_sk_load_g8_sse41_8bit)
-_sk_load_g8_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 26d74 <_sk_load_g8_sse41_8bit+0x5c>
- .byte 102,67,15,56,48,12,24 // pmovzxbw (%r8,%r11,1),%xmm1
- .byte 102,15,219,13,129,203,0,0 // pand 0xcb81(%rip),%xmm1 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
- .byte 102,15,112,201,78 // pshufd $0x4e,%xmm1,%xmm1
- .byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
- .byte 102,15,111,37,122,211,0,0 // movdqa 0xd37a(%rip),%xmm4 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1654>
- .byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
- .byte 102,15,56,64,196 // pmulld %xmm4,%xmm0
- .byte 102,15,111,37,184,210,0,0 // movdqa 0xd2b8(%rip),%xmm4 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 102,15,235,196 // por %xmm4,%xmm0
- .byte 102,15,235,204 // por %xmm4,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,175 // ja 26d37 <_sk_load_g8_sse41_8bit+0x1f>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 26e0c <_sk_load_g8_sse41_8bit+0xf4>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 235,144 // jmp 26d37 <_sk_load_g8_sse41_8bit+0x1f>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,58,14,200,3 // pblendw $0x3,%xmm0,%xmm1
- .byte 233,104,255,255,255 // jmpq 26d37 <_sk_load_g8_sse41_8bit+0x1f>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,200,5 // pinsrw $0x5,%eax,%xmm1
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,200,4 // pinsrw $0x4,%eax,%xmm1
- .byte 102,67,15,110,4,24 // movd (%r8,%r11,1),%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,58,14,200,15 // pblendw $0xf,%xmm0,%xmm1
- .byte 233,45,255,255,255 // jmpq 26d37 <_sk_load_g8_sse41_8bit+0x1f>
- .byte 102,144 // xchg %ax,%ax
- .byte 144 // nop
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde026e1c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddff43a0>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_sse41_8bit
-.globl _sk_load_g8_dst_sse41_8bit
-FUNCTION(_sk_load_g8_dst_sse41_8bit)
-_sk_load_g8_dst_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 26e84 <_sk_load_g8_dst_sse41_8bit+0x5c>
- .byte 102,67,15,56,48,28,24 // pmovzxbw (%r8,%r11,1),%xmm3
- .byte 102,15,219,29,113,202,0,0 // pand 0xca71(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,56,51,211 // pmovzxwd %xmm3,%xmm2
- .byte 102,15,112,219,78 // pshufd $0x4e,%xmm3,%xmm3
- .byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
- .byte 102,15,111,37,106,210,0,0 // movdqa 0xd26a(%rip),%xmm4 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1654>
- .byte 102,15,56,64,220 // pmulld %xmm4,%xmm3
- .byte 102,15,56,64,212 // pmulld %xmm4,%xmm2
- .byte 102,15,111,37,168,209,0,0 // movdqa 0xd1a8(%rip),%xmm4 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 102,15,235,212 // por %xmm4,%xmm2
- .byte 102,15,235,220 // por %xmm4,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,175 // ja 26e47 <_sk_load_g8_dst_sse41_8bit+0x1f>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 26f1c <_sk_load_g8_dst_sse41_8bit+0xf4>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,144 // jmp 26e47 <_sk_load_g8_dst_sse41_8bit+0x1f>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 102,15,56,48,210 // pmovzxbw %xmm2,%xmm2
- .byte 102,15,58,14,218,3 // pblendw $0x3,%xmm2,%xmm3
- .byte 233,104,255,255,255 // jmpq 26e47 <_sk_load_g8_dst_sse41_8bit+0x1f>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,216,5 // pinsrw $0x5,%eax,%xmm3
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,216,4 // pinsrw $0x4,%eax,%xmm3
- .byte 102,67,15,110,20,24 // movd (%r8,%r11,1),%xmm2
- .byte 102,15,56,48,210 // pmovzxbw %xmm2,%xmm2
- .byte 102,15,58,14,218,15 // pblendw $0xf,%xmm2,%xmm3
- .byte 233,45,255,255,255 // jmpq 26e47 <_sk_load_g8_dst_sse41_8bit+0x1f>
- .byte 102,144 // xchg %ax,%ax
- .byte 144 // nop
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde026f2c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddff44b0>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_rgba_8888_sse41_8bit
-.globl _sk_srcover_rgba_8888_sse41_8bit
-FUNCTION(_sk_srcover_rgba_8888_sse41_8bit)
-_sk_srcover_rgba_8888_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne 2702f <_sk_srcover_rgba_8888_sse41_8bit+0xf7>
- .byte 243,71,15,111,12,152 // movdqu (%r8,%r11,4),%xmm9
- .byte 243,71,15,111,68,152,16 // movdqu 0x10(%r8,%r11,4),%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,192,208,0,0 // movdqa 0xd0c0(%rip),%xmm6 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,230 // pshufb %xmm6,%xmm4
- .byte 102,65,15,112,241,78 // pshufd $0x4e,%xmm9,%xmm6
- .byte 102,68,15,56,48,238 // pmovzxbw %xmm6,%xmm13
- .byte 102,69,15,56,48,209 // pmovzxbw %xmm9,%xmm10
- .byte 102,65,15,112,240,78 // pshufd $0x4e,%xmm8,%xmm6
- .byte 102,68,15,56,48,222 // pmovzxbw %xmm6,%xmm11
- .byte 102,69,15,56,48,224 // pmovzxbw %xmm8,%xmm12
- .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6
- .byte 102,15,56,48,238 // pmovzxbw %xmm6,%xmm5
- .byte 102,15,56,48,244 // pmovzxbw %xmm4,%xmm6
- .byte 102,15,112,231,78 // pshufd $0x4e,%xmm7,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,65,15,213,252 // pmullw %xmm12,%xmm7
- .byte 102,65,15,213,227 // pmullw %xmm11,%xmm4
- .byte 102,65,15,213,242 // pmullw %xmm10,%xmm6
- .byte 102,65,15,213,237 // pmullw %xmm13,%xmm5
- .byte 102,65,15,253,237 // paddw %xmm13,%xmm5
- .byte 102,65,15,253,242 // paddw %xmm10,%xmm6
- .byte 102,65,15,253,227 // paddw %xmm11,%xmm4
- .byte 102,65,15,253,252 // paddw %xmm12,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,245 // packuswb %xmm5,%xmm6
- .byte 102,68,15,248,199 // psubb %xmm7,%xmm8
- .byte 102,68,15,248,206 // psubb %xmm6,%xmm9
- .byte 102,68,15,252,200 // paddb %xmm0,%xmm9
- .byte 102,68,15,252,193 // paddb %xmm1,%xmm8
- .byte 117,78 // jne 2706c <_sk_srcover_rgba_8888_sse41_8bit+0x134>
- .byte 243,71,15,127,12,152 // movdqu %xmm9,(%r8,%r11,4)
- .byte 243,71,15,127,68,152,16 // movdqu %xmm8,0x10(%r8,%r11,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,24,255,255,255 // ja 26f65 <_sk_srcover_rgba_8888_sse41_8bit+0x2d>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,196,0,0,0 // lea 0xc4(%rip),%r10 # 2711c <_sk_srcover_rgba_8888_sse41_8bit+0x1e4>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,71,15,110,12,152 // movd (%r8,%r11,4),%xmm9
- .byte 233,249,254,255,255 // jmpq 26f65 <_sk_srcover_rgba_8888_sse41_8bit+0x2d>
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,175 // ja 2702b <_sk_srcover_rgba_8888_sse41_8bit+0xf3>
- .byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,177,0,0,0 // lea 0xb1(%rip),%r9 # 27138 <_sk_srcover_rgba_8888_sse41_8bit+0x200>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,71,15,126,12,152 // movd %xmm9,(%r8,%r11,4)
- .byte 235,147 // jmp 2702b <_sk_srcover_rgba_8888_sse41_8bit+0xf3>
- .byte 102,67,15,110,108,152,8 // movd 0x8(%r8,%r11,4),%xmm5
- .byte 102,68,15,112,205,69 // pshufd $0x45,%xmm5,%xmm9
- .byte 243,67,15,126,52,152 // movq (%r8,%r11,4),%xmm6
- .byte 102,68,15,58,14,206,15 // pblendw $0xf,%xmm6,%xmm9
- .byte 233,174,254,255,255 // jmpq 26f65 <_sk_srcover_rgba_8888_sse41_8bit+0x2d>
- .byte 102,67,15,110,100,152,24 // movd 0x18(%r8,%r11,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,71,15,58,34,68,152,20,1 // pinsrd $0x1,0x14(%r8,%r11,4),%xmm8
- .byte 102,71,15,58,34,68,152,16,0 // pinsrd $0x0,0x10(%r8,%r11,4),%xmm8
- .byte 243,71,15,111,12,152 // movdqu (%r8,%r11,4),%xmm9
- .byte 233,132,254,255,255 // jmpq 26f65 <_sk_srcover_rgba_8888_sse41_8bit+0x2d>
- .byte 102,71,15,58,22,76,152,8,2 // pextrd $0x2,%xmm9,0x8(%r8,%r11,4)
- .byte 102,71,15,214,12,152 // movq %xmm9,(%r8,%r11,4)
- .byte 233,54,255,255,255 // jmpq 2702b <_sk_srcover_rgba_8888_sse41_8bit+0xf3>
- .byte 102,71,15,58,22,68,152,24,2 // pextrd $0x2,%xmm8,0x18(%r8,%r11,4)
- .byte 102,71,15,58,22,68,152,20,1 // pextrd $0x1,%xmm8,0x14(%r8,%r11,4)
- .byte 102,71,15,126,68,152,16 // movd %xmm8,0x10(%r8,%r11,4)
- .byte 243,71,15,127,12,152 // movdqu %xmm9,(%r8,%r11,4)
- .byte 233,18,255,255,255 // jmpq 2702b <_sk_srcover_rgba_8888_sse41_8bit+0xf3>
- .byte 15,31,0 // nopl (%rax)
- .byte 69,255 // rex.RB (bad)
- .byte 255 // (bad)
- .byte 255,137,255,255,255,124 // decl 0x7cffffff(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186,255,255,255,177 // mov $0xb1ffffff,%edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,155 // ljmp *-0x64000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,88,255 // lcall *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255,178,255,255,255,169 // pushq -0x56000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,207 // dec %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189 // .byte 0xbd
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_1_float_sse41_8bit
-.globl _sk_scale_1_float_sse41_8bit
-FUNCTION(_sk_scale_1_float_sse41_8bit)
-_sk_scale_1_float_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,32 // movss (%rax),%xmm4
- .byte 243,15,89,37,210,197,0,0 // mulss 0xc5d2(%rip),%xmm4 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 243,15,44,196 // cvttss2si %xmm4,%eax
- .byte 102,15,56,48,224 // pmovzxbw %xmm0,%xmm4
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5
- .byte 102,68,15,56,48,193 // pmovzxbw %xmm1,%xmm8
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,68,15,56,48,200 // pmovzxbw %xmm0,%xmm9
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,65,15,213,241 // pmullw %xmm9,%xmm6
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,15,253,253 // paddw %xmm5,%xmm7
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,65,15,253,241 // paddw %xmm9,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,206 // packuswb %xmm6,%xmm1
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_sse41_8bit
-.globl _sk_scale_u8_sse41_8bit
-FUNCTION(_sk_scale_u8_sse41_8bit)
-_sk_scale_u8_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 272ae <_sk_scale_u8_sse41_8bit+0xc6>
- .byte 102,67,15,56,48,36,24 // pmovzxbw (%r8,%r11,1),%xmm4
- .byte 102,15,219,37,173,198,0,0 // pand 0xc6ad(%rip),%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,56,0,45,192,206,0,0 // pshufb 0xcec0(%rip),%xmm5 # 340e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1664>
- .byte 102,15,56,0,37,199,206,0,0 // pshufb 0xcec7(%rip),%xmm4 # 340f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1674>
- .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,68,15,56,48,208 // pmovzxbw %xmm0,%xmm10
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,68,15,56,48,192 // pmovzxbw %xmm0,%xmm8
- .byte 102,68,15,56,48,201 // pmovzxbw %xmm1,%xmm9
- .byte 102,15,112,196,78 // pshufd $0x4e,%xmm4,%xmm0
- .byte 102,15,56,48,248 // pmovzxbw %xmm0,%xmm7
- .byte 102,15,56,48,196 // pmovzxbw %xmm4,%xmm0
- .byte 102,15,112,205,78 // pshufd $0x4e,%xmm5,%xmm1
- .byte 102,15,56,48,225 // pmovzxbw %xmm1,%xmm4
- .byte 102,15,56,48,205 // pmovzxbw %xmm5,%xmm1
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
- .byte 102,15,213,254 // pmullw %xmm6,%xmm7
- .byte 102,15,253,254 // paddw %xmm6,%xmm7
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,204 // packuswb %xmm4,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,69,255,255,255 // ja 2720b <_sk_scale_u8_sse41_8bit+0x23>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 2734c <_sk_scale_u8_sse41_8bit+0x164>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 233,35,255,255,255 // jmpq 2720b <_sk_scale_u8_sse41_8bit+0x23>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,58,14,229,3 // pblendw $0x3,%xmm5,%xmm4
- .byte 233,251,254,255,255 // jmpq 2720b <_sk_scale_u8_sse41_8bit+0x23>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,224,5 // pinsrw $0x5,%eax,%xmm4
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,224,4 // pinsrw $0x4,%eax,%xmm4
- .byte 102,67,15,110,44,24 // movd (%r8,%r11,1),%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 233,192,254,255,255 // jmpq 2720b <_sk_scale_u8_sse41_8bit+0x23>
- .byte 144 // nop
- .byte 142,255 // mov %edi,%?
- .byte 255 // (bad)
- .byte 255,171,255,255,255,156 // ljmp *-0x63000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf02735c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdeff48e0>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_1_float_sse41_8bit
-.globl _sk_lerp_1_float_sse41_8bit
-FUNCTION(_sk_lerp_1_float_sse41_8bit)
-_sk_lerp_1_float_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,32 // movss (%rax),%xmm4
- .byte 243,15,89,37,190,195,0,0 // mulss 0xc3be(%rip),%xmm4 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 243,15,44,196 // cvttss2si %xmm4,%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,0 // pshuflw $0x0,%xmm4,%xmm4
- .byte 102,68,15,112,196,80 // pshufd $0x50,%xmm4,%xmm8
- .byte 102,68,15,56,48,208 // pmovzxbw %xmm0,%xmm10
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,68,15,56,48,201 // pmovzxbw %xmm1,%xmm9
- .byte 102,15,112,201,78 // pshufd $0x4e,%xmm1,%xmm1
- .byte 102,15,56,48,201 // pmovzxbw %xmm1,%xmm1
- .byte 102,15,56,48,252 // pmovzxbw %xmm4,%xmm7
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,213,225 // pmullw %xmm1,%xmm4
- .byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,65,15,213,233 // pmullw %xmm9,%xmm5
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,65,15,213,250 // pmullw %xmm10,%xmm7
- .byte 102,65,15,253,250 // paddw %xmm10,%xmm7
- .byte 102,15,253,240 // paddw %xmm0,%xmm6
- .byte 102,65,15,253,233 // paddw %xmm9,%xmm5
- .byte 102,15,253,225 // paddw %xmm1,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,236 // packuswb %xmm4,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,254 // packuswb %xmm6,%xmm7
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,65,15,239,192 // pxor %xmm8,%xmm0
- .byte 102,15,112,202,78 // pshufd $0x4e,%xmm2,%xmm1
- .byte 102,68,15,56,48,217 // pmovzxbw %xmm1,%xmm11
- .byte 102,68,15,56,48,210 // pmovzxbw %xmm2,%xmm10
- .byte 102,15,112,203,78 // pshufd $0x4e,%xmm3,%xmm1
- .byte 102,68,15,56,48,193 // pmovzxbw %xmm1,%xmm8
- .byte 102,68,15,56,48,203 // pmovzxbw %xmm3,%xmm9
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,56,48,225 // pmovzxbw %xmm1,%xmm4
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,65,15,213,240 // pmullw %xmm8,%xmm6
- .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
- .byte 102,65,15,213,227 // pmullw %xmm11,%xmm4
- .byte 102,65,15,253,227 // paddw %xmm11,%xmm4
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,65,15,253,240 // paddw %xmm8,%xmm6
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,206 // packuswb %xmm6,%xmm1
- .byte 102,15,252,205 // paddb %xmm5,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,196 // packuswb %xmm4,%xmm0
- .byte 102,15,252,199 // paddb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_u8_sse41_8bit
-.globl _sk_lerp_u8_sse41_8bit
-FUNCTION(_sk_lerp_u8_sse41_8bit)
-_sk_lerp_u8_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,77,1,0,0 // jne 275f9 <_sk_lerp_u8_sse41_8bit+0x169>
- .byte 102,71,15,56,48,4,24 // pmovzxbw (%r8,%r11,1),%xmm8
- .byte 102,68,15,219,5,4,196,0,0 // pand 0xc404(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
- .byte 102,15,56,0,61,22,204,0,0 // pshufb 0xcc16(%rip),%xmm7 # 340e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1664>
- .byte 102,68,15,56,0,5,28,204,0,0 // pshufb 0xcc1c(%rip),%xmm8 # 340f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1674>
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,68,15,56,48,216 // pmovzxbw %xmm0,%xmm11
- .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
- .byte 102,68,15,56,48,205 // pmovzxbw %xmm5,%xmm9
- .byte 102,68,15,56,48,209 // pmovzxbw %xmm1,%xmm10
- .byte 102,65,15,112,232,78 // pshufd $0x4e,%xmm8,%xmm5
- .byte 102,15,56,48,205 // pmovzxbw %xmm5,%xmm1
- .byte 102,69,15,56,48,232 // pmovzxbw %xmm8,%xmm13
- .byte 102,15,112,247,78 // pshufd $0x4e,%xmm7,%xmm6
- .byte 102,15,56,48,198 // pmovzxbw %xmm6,%xmm0
- .byte 102,15,56,48,247 // pmovzxbw %xmm7,%xmm6
- .byte 102,65,15,213,242 // pmullw %xmm10,%xmm6
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,69,15,213,235 // pmullw %xmm11,%xmm13
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,69,15,253,235 // paddw %xmm11,%xmm13
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,65,15,253,242 // paddw %xmm10,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,240 // packuswb %xmm0,%xmm6
- .byte 102,65,15,113,213,8 // psrlw $0x8,%xmm13
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,103,233 // packuswb %xmm1,%xmm13
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,239,248 // pxor %xmm0,%xmm7
- .byte 102,68,15,239,192 // pxor %xmm0,%xmm8
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,68,15,56,48,200 // pmovzxbw %xmm0,%xmm9
- .byte 102,68,15,56,48,210 // pmovzxbw %xmm2,%xmm10
- .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0
- .byte 102,68,15,56,48,216 // pmovzxbw %xmm0,%xmm11
- .byte 102,68,15,56,48,227 // pmovzxbw %xmm3,%xmm12
- .byte 102,65,15,112,192,78 // pshufd $0x4e,%xmm8,%xmm0
- .byte 102,15,56,48,224 // pmovzxbw %xmm0,%xmm4
- .byte 102,65,15,56,48,192 // pmovzxbw %xmm8,%xmm0
- .byte 102,15,112,207,78 // pshufd $0x4e,%xmm7,%xmm1
- .byte 102,15,56,48,233 // pmovzxbw %xmm1,%xmm5
- .byte 102,15,56,48,207 // pmovzxbw %xmm7,%xmm1
- .byte 102,65,15,213,204 // pmullw %xmm12,%xmm1
- .byte 102,65,15,213,235 // pmullw %xmm11,%xmm5
- .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
- .byte 102,65,15,213,225 // pmullw %xmm9,%xmm4
- .byte 102,65,15,253,225 // paddw %xmm9,%xmm4
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,65,15,253,235 // paddw %xmm11,%xmm5
- .byte 102,65,15,253,204 // paddw %xmm12,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 102,15,252,206 // paddb %xmm6,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,196 // packuswb %xmm4,%xmm0
- .byte 102,65,15,252,197 // paddb %xmm13,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,161,254,255,255 // ja 274b3 <_sk_lerp_u8_sse41_8bit+0x23>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 276a0 <_sk_lerp_u8_sse41_8bit+0x210>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,126,254,255,255 // jmpq 274b3 <_sk_lerp_u8_sse41_8bit+0x23>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,68,15,58,14,196,3 // pblendw $0x3,%xmm4,%xmm8
- .byte 233,83,254,255,255 // jmpq 274b3 <_sk_lerp_u8_sse41_8bit+0x23>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,68,15,196,192,5 // pinsrw $0x5,%eax,%xmm8
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,68,15,196,192,4 // pinsrw $0x4,%eax,%xmm8
- .byte 102,67,15,110,36,24 // movd (%r8,%r11,1),%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,68,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm8
- .byte 233,19,254,255,255 // jmpq 274b3 <_sk_lerp_u8_sse41_8bit+0x23>
- .byte 134,255 // xchg %bh,%bh
- .byte 255 // (bad)
- .byte 255,166,255,255,255,149 // jmpq *-0x6a000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 233,255,255,255,221 // jmpq ffffffffde0276b0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddff4c34>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_move_src_dst_sse41_8bit
-.globl _sk_move_src_dst_sse41_8bit
-FUNCTION(_sk_move_src_dst_sse41_8bit)
-_sk_move_src_dst_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_sse41_8bit
-.globl _sk_move_dst_src_sse41_8bit
-FUNCTION(_sk_move_dst_src_sse41_8bit)
-_sk_move_dst_src_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_sse41_8bit
-.globl _sk_black_color_sse41_8bit
-FUNCTION(_sk_black_color_sse41_8bit)
-_sk_black_color_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,71,201,0,0 // movaps 0xc947(%rip),%xmm0 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_sse41_8bit
-.globl _sk_white_color_sse41_8bit
-FUNCTION(_sk_white_color_sse41_8bit)
-_sk_white_color_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_sse41_8bit
-.globl _sk_clear_sse41_8bit
-FUNCTION(_sk_clear_sse41_8bit)
-_sk_clear_sse41_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_sse41_8bit
-.globl _sk_srcatop_sse41_8bit
-FUNCTION(_sk_srcatop_sse41_8bit)
-_sk_srcatop_sse41_8bit:
- .byte 102,68,15,111,5,51,201,0,0 // movdqa 0xc933(%rip),%xmm8 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,68,15,112,203,78 // pshufd $0x4e,%xmm3,%xmm9
- .byte 102,68,15,56,48,219 // pmovzxbw %xmm3,%xmm11
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,65,15,56,0,248 // pshufb %xmm8,%xmm7
- .byte 102,68,15,112,210,78 // pshufd $0x4e,%xmm2,%xmm10
- .byte 102,68,15,56,48,226 // pmovzxbw %xmm2,%xmm12
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,65,15,56,0,224 // pshufb %xmm8,%xmm4
- .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,68,15,56,48,232 // pmovzxbw %xmm0,%xmm13
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,213,238 // pmullw %xmm6,%xmm5
- .byte 102,15,253,238 // paddw %xmm6,%xmm5
- .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
- .byte 102,68,15,56,48,246 // pmovzxbw %xmm6,%xmm14
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,65,15,213,229 // pmullw %xmm13,%xmm4
- .byte 102,65,15,253,229 // paddw %xmm13,%xmm4
- .byte 102,15,112,247,78 // pshufd $0x4e,%xmm7,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,65,15,213,246 // pmullw %xmm14,%xmm6
- .byte 102,65,15,253,246 // paddw %xmm14,%xmm6
- .byte 102,68,15,56,48,233 // pmovzxbw %xmm1,%xmm13
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,65,15,213,253 // pmullw %xmm13,%xmm7
- .byte 102,65,15,253,253 // paddw %xmm13,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,254 // packuswb %xmm6,%xmm7
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,229 // packuswb %xmm5,%xmm4
- .byte 102,65,15,56,0,192 // pshufb %xmm8,%xmm0
- .byte 102,65,15,56,0,200 // pshufb %xmm8,%xmm1
- .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
- .byte 102,15,239,205 // pxor %xmm5,%xmm1
- .byte 102,15,239,197 // pxor %xmm5,%xmm0
- .byte 102,69,15,56,48,210 // pmovzxbw %xmm10,%xmm10
- .byte 102,69,15,56,48,193 // pmovzxbw %xmm9,%xmm8
- .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,56,48,201 // pmovzxbw %xmm1,%xmm1
- .byte 102,65,15,213,203 // pmullw %xmm11,%xmm1
- .byte 102,65,15,213,232 // pmullw %xmm8,%xmm5
- .byte 102,65,15,213,196 // pmullw %xmm12,%xmm0
- .byte 102,65,15,213,242 // pmullw %xmm10,%xmm6
- .byte 102,65,15,253,242 // paddw %xmm10,%xmm6
- .byte 102,65,15,253,196 // paddw %xmm12,%xmm0
- .byte 102,65,15,253,232 // paddw %xmm8,%xmm5
- .byte 102,65,15,253,203 // paddw %xmm11,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 102,15,252,207 // paddb %xmm7,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,198 // packuswb %xmm6,%xmm0
- .byte 102,15,252,196 // paddb %xmm4,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_sse41_8bit
-.globl _sk_dstatop_sse41_8bit
-FUNCTION(_sk_dstatop_sse41_8bit)
-_sk_dstatop_sse41_8bit:
- .byte 102,68,15,111,5,235,199,0,0 // movdqa 0xc7eb(%rip),%xmm8 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,68,15,112,201,78 // pshufd $0x4e,%xmm1,%xmm9
- .byte 102,68,15,56,48,217 // pmovzxbw %xmm1,%xmm11
- .byte 102,65,15,56,0,200 // pshufb %xmm8,%xmm1
- .byte 102,68,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm10
- .byte 102,68,15,56,48,224 // pmovzxbw %xmm0,%xmm12
- .byte 102,65,15,56,0,192 // pshufb %xmm8,%xmm0
- .byte 102,15,112,234,78 // pshufd $0x4e,%xmm2,%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,56,48,250 // pmovzxbw %xmm2,%xmm7
- .byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6
- .byte 102,68,15,56,48,238 // pmovzxbw %xmm6,%xmm13
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,15,213,229 // pmullw %xmm5,%xmm4
- .byte 102,15,253,229 // paddw %xmm5,%xmm4
- .byte 102,15,56,48,235 // pmovzxbw %xmm3,%xmm5
- .byte 102,15,56,48,240 // pmovzxbw %xmm0,%xmm6
- .byte 102,15,213,247 // pmullw %xmm7,%xmm6
- .byte 102,15,253,247 // paddw %xmm7,%xmm6
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,56,48,249 // pmovzxbw %xmm1,%xmm7
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,65,15,213,197 // pmullw %xmm13,%xmm0
- .byte 102,65,15,253,197 // paddw %xmm13,%xmm0
- .byte 102,15,253,253 // paddw %xmm5,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,248 // packuswb %xmm0,%xmm7
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,244 // packuswb %xmm4,%xmm6
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,65,15,56,0,192 // pshufb %xmm8,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,65,15,56,0,200 // pshufb %xmm8,%xmm1
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 102,15,239,196 // pxor %xmm4,%xmm0
- .byte 102,69,15,56,48,210 // pmovzxbw %xmm10,%xmm10
- .byte 102,69,15,56,48,193 // pmovzxbw %xmm9,%xmm8
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,15,56,48,201 // pmovzxbw %xmm1,%xmm1
- .byte 102,65,15,213,203 // pmullw %xmm11,%xmm1
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,65,15,213,196 // pmullw %xmm12,%xmm0
- .byte 102,65,15,213,234 // pmullw %xmm10,%xmm5
- .byte 102,65,15,253,234 // paddw %xmm10,%xmm5
- .byte 102,65,15,253,196 // paddw %xmm12,%xmm0
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,65,15,253,203 // paddw %xmm11,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,204 // packuswb %xmm4,%xmm1
- .byte 102,15,252,207 // paddb %xmm7,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,197 // packuswb %xmm5,%xmm0
- .byte 102,15,252,198 // paddb %xmm6,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_sse41_8bit
-.globl _sk_srcin_sse41_8bit
-FUNCTION(_sk_srcin_sse41_8bit)
-_sk_srcin_sse41_8bit:
- .byte 102,15,111,37,170,198,0,0 // movdqa 0xc6aa(%rip),%xmm4 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,56,0,244 // pshufb %xmm4,%xmm6
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,68,15,56,48,208 // pmovzxbw %xmm0,%xmm10
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,68,15,56,48,192 // pmovzxbw %xmm0,%xmm8
- .byte 102,68,15,56,48,201 // pmovzxbw %xmm1,%xmm9
- .byte 102,15,112,198,78 // pshufd $0x4e,%xmm6,%xmm0
- .byte 102,15,56,48,248 // pmovzxbw %xmm0,%xmm7
- .byte 102,15,56,48,198 // pmovzxbw %xmm6,%xmm0
- .byte 102,15,112,205,78 // pshufd $0x4e,%xmm5,%xmm1
- .byte 102,15,56,48,241 // pmovzxbw %xmm1,%xmm6
- .byte 102,15,56,48,205 // pmovzxbw %xmm5,%xmm1
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,65,15,213,240 // pmullw %xmm8,%xmm6
- .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,65,15,253,240 // paddw %xmm8,%xmm6
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,206 // packuswb %xmm6,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_sse41_8bit
-.globl _sk_dstin_sse41_8bit
-FUNCTION(_sk_dstin_sse41_8bit)
-_sk_dstin_sse41_8bit:
- .byte 102,15,111,37,11,198,0,0 // movdqa 0xc60b(%rip),%xmm4 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,15,56,0,204 // pshufb %xmm4,%xmm1
- .byte 102,15,56,0,196 // pshufb %xmm4,%xmm0
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,68,15,56,48,202 // pmovzxbw %xmm2,%xmm9
- .byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,68,15,56,48,195 // pmovzxbw %xmm3,%xmm8
- .byte 102,15,112,248,78 // pshufd $0x4e,%xmm0,%xmm7
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,56,48,201 // pmovzxbw %xmm1,%xmm1
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,15,213,238 // pmullw %xmm6,%xmm5
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,253,238 // paddw %xmm6,%xmm5
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_sse41_8bit
-.globl _sk_srcout_sse41_8bit
-FUNCTION(_sk_srcout_sse41_8bit)
-_sk_srcout_sse41_8bit:
- .byte 102,15,111,37,119,197,0,0 // movdqa 0xc577(%rip),%xmm4 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,56,0,244 // pshufb %xmm4,%xmm6
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,239,244 // pxor %xmm4,%xmm6
- .byte 102,15,239,236 // pxor %xmm4,%xmm5
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,68,15,56,48,208 // pmovzxbw %xmm0,%xmm10
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,68,15,56,48,192 // pmovzxbw %xmm0,%xmm8
- .byte 102,68,15,56,48,201 // pmovzxbw %xmm1,%xmm9
- .byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
- .byte 102,15,56,48,248 // pmovzxbw %xmm0,%xmm7
- .byte 102,15,56,48,197 // pmovzxbw %xmm5,%xmm0
- .byte 102,15,112,206,78 // pshufd $0x4e,%xmm6,%xmm1
- .byte 102,15,56,48,233 // pmovzxbw %xmm1,%xmm5
- .byte 102,15,56,48,206 // pmovzxbw %xmm6,%xmm1
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,65,15,213,232 // pmullw %xmm8,%xmm5
- .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,65,15,253,232 // paddw %xmm8,%xmm5
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_sse41_8bit
-.globl _sk_dstout_sse41_8bit
-FUNCTION(_sk_dstout_sse41_8bit)
-_sk_dstout_sse41_8bit:
- .byte 102,15,111,37,204,196,0,0 // movdqa 0xc4cc(%rip),%xmm4 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,15,56,0,196 // pshufb %xmm4,%xmm0
- .byte 102,15,56,0,204 // pshufb %xmm4,%xmm1
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 102,15,239,196 // pxor %xmm4,%xmm0
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,68,15,56,48,202 // pmovzxbw %xmm2,%xmm9
- .byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,68,15,56,48,195 // pmovzxbw %xmm3,%xmm8
- .byte 102,15,112,248,78 // pshufd $0x4e,%xmm0,%xmm7
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,56,48,201 // pmovzxbw %xmm1,%xmm1
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,15,213,238 // pmullw %xmm6,%xmm5
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,253,238 // paddw %xmm6,%xmm5
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_sse41_8bit
-.globl _sk_srcover_sse41_8bit
-FUNCTION(_sk_srcover_sse41_8bit)
-_sk_srcover_sse41_8bit:
- .byte 102,15,111,37,44,196,0,0 // movdqa 0xc42c(%rip),%xmm4 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,56,0,244 // pshufb %xmm4,%xmm6
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,68,15,56,48,220 // pmovzxbw %xmm4,%xmm11
- .byte 102,68,15,56,48,194 // pmovzxbw %xmm2,%xmm8
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,68,15,56,48,204 // pmovzxbw %xmm4,%xmm9
- .byte 102,68,15,56,48,211 // pmovzxbw %xmm3,%xmm10
- .byte 102,15,112,230,78 // pshufd $0x4e,%xmm6,%xmm4
- .byte 102,15,56,48,252 // pmovzxbw %xmm4,%xmm7
- .byte 102,15,56,48,230 // pmovzxbw %xmm6,%xmm4
- .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,65,15,213,234 // pmullw %xmm10,%xmm5
- .byte 102,65,15,213,241 // pmullw %xmm9,%xmm6
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,65,15,213,251 // pmullw %xmm11,%xmm7
- .byte 102,65,15,253,251 // paddw %xmm11,%xmm7
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,65,15,253,241 // paddw %xmm9,%xmm6
- .byte 102,65,15,253,234 // paddw %xmm10,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,231 // packuswb %xmm7,%xmm4
- .byte 102,15,252,203 // paddb %xmm3,%xmm1
- .byte 102,15,248,205 // psubb %xmm5,%xmm1
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,248,196 // psubb %xmm4,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_sse41_8bit
-.globl _sk_dstover_sse41_8bit
-FUNCTION(_sk_dstover_sse41_8bit)
-_sk_dstover_sse41_8bit:
- .byte 102,68,15,111,5,121,195,0,0 // movdqa 0xc379(%rip),%xmm8 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,68,15,112,201,78 // pshufd $0x4e,%xmm1,%xmm9
- .byte 102,68,15,56,48,209 // pmovzxbw %xmm1,%xmm10
- .byte 102,15,252,203 // paddb %xmm3,%xmm1
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,65,15,56,0,248 // pshufb %xmm8,%xmm7
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,68,15,56,48,216 // pmovzxbw %xmm0,%xmm11
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,65,15,56,0,232 // pshufb %xmm8,%xmm5
- .byte 102,68,15,56,48,228 // pmovzxbw %xmm4,%xmm12
- .byte 102,69,15,56,48,193 // pmovzxbw %xmm9,%xmm8
- .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,112,231,78 // pshufd $0x4e,%xmm7,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,65,15,213,250 // pmullw %xmm10,%xmm7
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,65,15,213,235 // pmullw %xmm11,%xmm5
- .byte 102,65,15,213,244 // pmullw %xmm12,%xmm6
- .byte 102,65,15,253,244 // paddw %xmm12,%xmm6
- .byte 102,65,15,253,235 // paddw %xmm11,%xmm5
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,65,15,253,250 // paddw %xmm10,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 102,15,248,207 // psubb %xmm7,%xmm1
- .byte 102,15,248,197 // psubb %xmm5,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_sse41_8bit
-.globl _sk_modulate_sse41_8bit
-FUNCTION(_sk_modulate_sse41_8bit)
-_sk_modulate_sse41_8bit:
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,68,15,56,48,200 // pmovzxbw %xmm0,%xmm9
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,56,48,240 // pmovzxbw %xmm0,%xmm6
- .byte 102,68,15,56,48,193 // pmovzxbw %xmm1,%xmm8
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,15,56,48,248 // pmovzxbw %xmm0,%xmm7
- .byte 102,15,56,48,194 // pmovzxbw %xmm2,%xmm0
- .byte 102,15,112,203,78 // pshufd $0x4e,%xmm3,%xmm1
- .byte 102,15,56,48,233 // pmovzxbw %xmm1,%xmm5
- .byte 102,15,56,48,203 // pmovzxbw %xmm3,%xmm1
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,15,213,238 // pmullw %xmm6,%xmm5
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,253,238 // paddw %xmm6,%xmm5
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_sse41_8bit
-.globl _sk_multiply_sse41_8bit
-FUNCTION(_sk_multiply_sse41_8bit)
-_sk_multiply_sse41_8bit:
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,68,15,111,37,61,194,0,0 // movdqa 0xc23d(%rip),%xmm12 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,127,68,36,232 // movdqa %xmm0,-0x18(%rsp)
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,68,15,56,48,192 // pmovzxbw %xmm0,%xmm8
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,65,15,56,0,236 // pshufb %xmm12,%xmm5
- .byte 102,68,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm14
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,127,92,36,216 // movdqa %xmm3,-0x28(%rsp)
- .byte 102,65,15,56,0,244 // pshufb %xmm12,%xmm6
- .byte 102,69,15,118,255 // pcmpeqd %xmm15,%xmm15
- .byte 102,65,15,239,247 // pxor %xmm15,%xmm6
- .byte 102,65,15,239,239 // pxor %xmm15,%xmm5
- .byte 102,15,112,252,78 // pshufd $0x4e,%xmm4,%xmm7
- .byte 102,68,15,56,48,223 // pmovzxbw %xmm7,%xmm11
- .byte 102,68,15,56,48,212 // pmovzxbw %xmm4,%xmm10
- .byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
- .byte 102,68,15,56,48,207 // pmovzxbw %xmm7,%xmm9
- .byte 102,68,15,56,48,233 // pmovzxbw %xmm1,%xmm13
- .byte 102,15,112,254,78 // pshufd $0x4e,%xmm6,%xmm7
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,65,15,213,245 // pmullw %xmm13,%xmm6
- .byte 102,65,15,213,249 // pmullw %xmm9,%xmm7
- .byte 102,65,15,253,249 // paddw %xmm9,%xmm7
- .byte 102,65,15,253,245 // paddw %xmm13,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,247 // packuswb %xmm7,%xmm6
- .byte 102,15,112,253,78 // pshufd $0x4e,%xmm5,%xmm7
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,15,56,48,197 // pmovzxbw %xmm5,%xmm0
- .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
- .byte 102,65,15,213,251 // pmullw %xmm11,%xmm7
- .byte 102,65,15,253,251 // paddw %xmm11,%xmm7
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 102,15,56,48,235 // pmovzxbw %xmm3,%xmm5
- .byte 102,65,15,56,0,228 // pshufb %xmm12,%xmm4
- .byte 102,65,15,56,0,204 // pshufb %xmm12,%xmm1
- .byte 102,65,15,239,207 // pxor %xmm15,%xmm1
- .byte 102,65,15,239,231 // pxor %xmm15,%xmm4
- .byte 102,68,15,56,48,226 // pmovzxbw %xmm2,%xmm12
- .byte 102,65,15,56,48,254 // pmovzxbw %xmm14,%xmm7
- .byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3
- .byte 102,15,56,48,219 // pmovzxbw %xmm3,%xmm3
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,15,56,48,210 // pmovzxbw %xmm2,%xmm2
- .byte 102,15,56,48,201 // pmovzxbw %xmm1,%xmm1
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,65,15,213,220 // pmullw %xmm12,%xmm3
- .byte 102,65,15,253,220 // paddw %xmm12,%xmm3
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,253,205 // paddw %xmm5,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,103,202 // packuswb %xmm2,%xmm1
- .byte 102,15,252,206 // paddb %xmm6,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,103,227 // packuswb %xmm3,%xmm4
- .byte 102,15,252,224 // paddb %xmm0,%xmm4
- .byte 102,65,15,213,237 // pmullw %xmm13,%xmm5
- .byte 102,65,15,213,249 // pmullw %xmm9,%xmm7
- .byte 102,69,15,213,194 // pmullw %xmm10,%xmm8
- .byte 102,69,15,213,227 // pmullw %xmm11,%xmm12
- .byte 102,69,15,253,227 // paddw %xmm11,%xmm12
- .byte 102,69,15,253,194 // paddw %xmm10,%xmm8
- .byte 102,65,15,253,249 // paddw %xmm9,%xmm7
- .byte 102,65,15,253,237 // paddw %xmm13,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,239 // packuswb %xmm7,%xmm5
- .byte 102,15,252,233 // paddb %xmm1,%xmm5
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,69,15,103,196 // packuswb %xmm12,%xmm8
- .byte 102,68,15,252,196 // paddb %xmm4,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,84,36,232 // movaps -0x18(%rsp),%xmm2
- .byte 15,40,92,36,216 // movaps -0x28(%rsp),%xmm3
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_sse41_8bit
-.globl _sk_screen_sse41_8bit
-FUNCTION(_sk_screen_sse41_8bit)
-_sk_screen_sse41_8bit:
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,239,236 // pxor %xmm4,%xmm5
- .byte 102,15,239,224 // pxor %xmm0,%xmm4
- .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6
- .byte 102,68,15,56,48,222 // pmovzxbw %xmm6,%xmm11
- .byte 102,68,15,56,48,212 // pmovzxbw %xmm4,%xmm10
- .byte 102,15,112,229,78 // pshufd $0x4e,%xmm5,%xmm4
- .byte 102,68,15,56,48,196 // pmovzxbw %xmm4,%xmm8
- .byte 102,68,15,56,48,205 // pmovzxbw %xmm5,%xmm9
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,15,56,48,236 // pmovzxbw %xmm4,%xmm5
- .byte 102,15,56,48,226 // pmovzxbw %xmm2,%xmm4
- .byte 102,15,112,251,78 // pshufd $0x4e,%xmm3,%xmm7
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,15,56,48,243 // pmovzxbw %xmm3,%xmm6
- .byte 102,65,15,213,241 // pmullw %xmm9,%xmm6
- .byte 102,65,15,213,248 // pmullw %xmm8,%xmm7
- .byte 102,65,15,213,226 // pmullw %xmm10,%xmm4
- .byte 102,65,15,213,235 // pmullw %xmm11,%xmm5
- .byte 102,65,15,253,235 // paddw %xmm11,%xmm5
- .byte 102,65,15,253,226 // paddw %xmm10,%xmm4
- .byte 102,65,15,253,248 // paddw %xmm8,%xmm7
- .byte 102,65,15,253,241 // paddw %xmm9,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,247 // packuswb %xmm7,%xmm6
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,229 // packuswb %xmm5,%xmm4
- .byte 102,15,252,196 // paddb %xmm4,%xmm0
- .byte 102,15,252,206 // paddb %xmm6,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__sse41_8bit
-.globl _sk_xor__sse41_8bit
-FUNCTION(_sk_xor__sse41_8bit)
-_sk_xor__sse41_8bit:
- .byte 102,68,15,111,5,216,191,0,0 // movdqa 0xbfd8(%rip),%xmm8 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,68,15,112,202,78 // pshufd $0x4e,%xmm2,%xmm9
- .byte 102,68,15,56,48,218 // pmovzxbw %xmm2,%xmm11
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,65,15,56,0,248 // pshufb %xmm8,%xmm7
- .byte 102,68,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm10
- .byte 102,68,15,56,48,227 // pmovzxbw %xmm3,%xmm12
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,65,15,56,0,224 // pshufb %xmm8,%xmm4
- .byte 102,69,15,118,237 // pcmpeqd %xmm13,%xmm13
- .byte 102,65,15,239,229 // pxor %xmm13,%xmm4
- .byte 102,65,15,239,253 // pxor %xmm13,%xmm7
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,68,15,56,48,240 // pmovzxbw %xmm0,%xmm14
- .byte 102,15,112,247,78 // pshufd $0x4e,%xmm7,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,15,213,245 // pmullw %xmm5,%xmm6
- .byte 102,15,253,245 // paddw %xmm5,%xmm6
- .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
- .byte 102,68,15,56,48,253 // pmovzxbw %xmm5,%xmm15
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,65,15,213,254 // pmullw %xmm14,%xmm7
- .byte 102,65,15,253,254 // paddw %xmm14,%xmm7
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,65,15,213,239 // pmullw %xmm15,%xmm5
- .byte 102,65,15,253,239 // paddw %xmm15,%xmm5
- .byte 102,68,15,56,48,241 // pmovzxbw %xmm1,%xmm14
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,65,15,213,230 // pmullw %xmm14,%xmm4
- .byte 102,65,15,253,230 // paddw %xmm14,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,229 // packuswb %xmm5,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,254 // packuswb %xmm6,%xmm7
- .byte 102,65,15,56,0,192 // pshufb %xmm8,%xmm0
- .byte 102,65,15,56,0,200 // pshufb %xmm8,%xmm1
- .byte 102,65,15,239,205 // pxor %xmm13,%xmm1
- .byte 102,65,15,239,197 // pxor %xmm13,%xmm0
- .byte 102,69,15,56,48,201 // pmovzxbw %xmm9,%xmm9
- .byte 102,69,15,56,48,194 // pmovzxbw %xmm10,%xmm8
- .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,56,48,201 // pmovzxbw %xmm1,%xmm1
- .byte 102,65,15,213,204 // pmullw %xmm12,%xmm1
- .byte 102,65,15,213,232 // pmullw %xmm8,%xmm5
- .byte 102,65,15,213,195 // pmullw %xmm11,%xmm0
- .byte 102,65,15,213,241 // pmullw %xmm9,%xmm6
- .byte 102,65,15,253,241 // paddw %xmm9,%xmm6
- .byte 102,65,15,253,195 // paddw %xmm11,%xmm0
- .byte 102,65,15,253,232 // paddw %xmm8,%xmm5
- .byte 102,65,15,253,204 // paddw %xmm12,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 102,15,252,204 // paddb %xmm4,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,198 // packuswb %xmm6,%xmm0
- .byte 102,15,252,199 // paddb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__sse41_8bit
-.globl _sk_plus__sse41_8bit
-FUNCTION(_sk_plus__sse41_8bit)
-_sk_plus__sse41_8bit:
- .byte 102,15,220,194 // paddusb %xmm2,%xmm0
- .byte 102,15,220,203 // paddusb %xmm3,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_sse41_8bit
-.globl _sk_darken_sse41_8bit
-FUNCTION(_sk_darken_sse41_8bit)
-_sk_darken_sse41_8bit:
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,68,15,111,208 // movdqa %xmm0,%xmm10
- .byte 102,15,111,37,110,190,0,0 // movdqa 0xbe6e(%rip),%xmm4 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,65,15,112,217,78 // pshufd $0x4e,%xmm9,%xmm3
- .byte 102,15,127,92,36,232 // movdqa %xmm3,-0x18(%rsp)
- .byte 102,69,15,56,48,217 // pmovzxbw %xmm9,%xmm11
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,56,0,196 // pshufb %xmm4,%xmm8
- .byte 102,69,15,112,226,78 // pshufd $0x4e,%xmm10,%xmm12
- .byte 102,69,15,56,48,242 // pmovzxbw %xmm10,%xmm14
- .byte 102,69,15,111,250 // movdqa %xmm10,%xmm15
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,127,92,36,216 // movdqa %xmm3,-0x28(%rsp)
- .byte 102,68,15,56,48,234 // pmovzxbw %xmm2,%xmm13
- .byte 102,68,15,252,210 // paddb %xmm2,%xmm10
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,56,0,244 // pshufb %xmm4,%xmm6
- .byte 102,65,15,56,48,236 // pmovzxbw %xmm12,%xmm5
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,112,254,78 // pshufd $0x4e,%xmm6,%xmm7
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,253,253 // paddw %xmm5,%xmm7
- .byte 102,68,15,56,48,225 // pmovzxbw %xmm1,%xmm12
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,65,15,213,246 // pmullw %xmm14,%xmm6
- .byte 102,65,15,253,246 // paddw %xmm14,%xmm6
- .byte 102,65,15,112,216,78 // pshufd $0x4e,%xmm8,%xmm3
- .byte 102,15,56,48,219 // pmovzxbw %xmm3,%xmm3
- .byte 102,15,213,216 // pmullw %xmm0,%xmm3
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,252,201 // paddb %xmm9,%xmm1
- .byte 102,65,15,56,48,232 // pmovzxbw %xmm8,%xmm5
- .byte 102,65,15,213,236 // pmullw %xmm12,%xmm5
- .byte 102,65,15,253,236 // paddw %xmm12,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,103,235 // packuswb %xmm3,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,247 // packuswb %xmm7,%xmm6
- .byte 102,15,56,0,196 // pshufb %xmm4,%xmm0
- .byte 102,68,15,56,0,252 // pshufb %xmm4,%xmm15
- .byte 102,68,15,56,48,100,36,216 // pmovzxbw -0x28(%rsp),%xmm12
- .byte 102,68,15,56,48,68,36,232 // pmovzxbw -0x18(%rsp),%xmm8
- .byte 102,65,15,112,231,78 // pshufd $0x4e,%xmm15,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,65,15,56,48,255 // pmovzxbw %xmm15,%xmm7
- .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
- .byte 102,15,56,48,219 // pmovzxbw %xmm3,%xmm3
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,65,15,213,195 // pmullw %xmm11,%xmm0
- .byte 102,65,15,213,216 // pmullw %xmm8,%xmm3
- .byte 102,65,15,213,253 // pmullw %xmm13,%xmm7
- .byte 102,65,15,213,228 // pmullw %xmm12,%xmm4
- .byte 102,65,15,253,228 // paddw %xmm12,%xmm4
- .byte 102,65,15,253,253 // paddw %xmm13,%xmm7
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,65,15,253,195 // paddw %xmm11,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,103,195 // packuswb %xmm3,%xmm0
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,222,247 // pmaxub %xmm7,%xmm6
- .byte 102,15,222,232 // pmaxub %xmm0,%xmm5
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,248,221 // psubb %xmm5,%xmm3
- .byte 102,65,15,111,226 // movdqa %xmm10,%xmm4
- .byte 102,15,248,230 // psubb %xmm6,%xmm4
- .byte 102,15,248,200 // psubb %xmm0,%xmm1
- .byte 102,68,15,248,215 // psubb %xmm7,%xmm10
- .byte 15,40,5,202,189,0,0 // movaps 0xbdca(%rip),%xmm0 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0x1684>
- .byte 102,68,15,56,16,212 // pblendvb %xmm0,%xmm4,%xmm10
- .byte 102,15,56,16,203 // pblendvb %xmm0,%xmm3,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_sse41_8bit
-.globl _sk_lighten_sse41_8bit
-FUNCTION(_sk_lighten_sse41_8bit)
-_sk_lighten_sse41_8bit:
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,68,15,111,208 // movdqa %xmm0,%xmm10
- .byte 102,15,111,37,207,188,0,0 // movdqa 0xbccf(%rip),%xmm4 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,65,15,112,217,78 // pshufd $0x4e,%xmm9,%xmm3
- .byte 102,15,127,92,36,232 // movdqa %xmm3,-0x18(%rsp)
- .byte 102,69,15,56,48,217 // pmovzxbw %xmm9,%xmm11
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,56,0,196 // pshufb %xmm4,%xmm8
- .byte 102,69,15,112,226,78 // pshufd $0x4e,%xmm10,%xmm12
- .byte 102,69,15,56,48,242 // pmovzxbw %xmm10,%xmm14
- .byte 102,69,15,111,250 // movdqa %xmm10,%xmm15
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,127,92,36,216 // movdqa %xmm3,-0x28(%rsp)
- .byte 102,68,15,56,48,234 // pmovzxbw %xmm2,%xmm13
- .byte 102,68,15,252,210 // paddb %xmm2,%xmm10
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,56,0,244 // pshufb %xmm4,%xmm6
- .byte 102,65,15,56,48,236 // pmovzxbw %xmm12,%xmm5
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,112,254,78 // pshufd $0x4e,%xmm6,%xmm7
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,253,253 // paddw %xmm5,%xmm7
- .byte 102,68,15,56,48,225 // pmovzxbw %xmm1,%xmm12
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,65,15,213,246 // pmullw %xmm14,%xmm6
- .byte 102,65,15,253,246 // paddw %xmm14,%xmm6
- .byte 102,65,15,112,216,78 // pshufd $0x4e,%xmm8,%xmm3
- .byte 102,15,56,48,219 // pmovzxbw %xmm3,%xmm3
- .byte 102,15,213,216 // pmullw %xmm0,%xmm3
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,252,201 // paddb %xmm9,%xmm1
- .byte 102,65,15,56,48,232 // pmovzxbw %xmm8,%xmm5
- .byte 102,65,15,213,236 // pmullw %xmm12,%xmm5
- .byte 102,65,15,253,236 // paddw %xmm12,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,103,235 // packuswb %xmm3,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,247 // packuswb %xmm7,%xmm6
- .byte 102,15,56,0,196 // pshufb %xmm4,%xmm0
- .byte 102,68,15,56,0,252 // pshufb %xmm4,%xmm15
- .byte 102,68,15,56,48,100,36,216 // pmovzxbw -0x28(%rsp),%xmm12
- .byte 102,68,15,56,48,68,36,232 // pmovzxbw -0x18(%rsp),%xmm8
- .byte 102,65,15,112,231,78 // pshufd $0x4e,%xmm15,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,65,15,56,48,255 // pmovzxbw %xmm15,%xmm7
- .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
- .byte 102,15,56,48,219 // pmovzxbw %xmm3,%xmm3
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,65,15,213,195 // pmullw %xmm11,%xmm0
- .byte 102,65,15,213,216 // pmullw %xmm8,%xmm3
- .byte 102,65,15,213,253 // pmullw %xmm13,%xmm7
- .byte 102,65,15,213,228 // pmullw %xmm12,%xmm4
- .byte 102,65,15,253,228 // paddw %xmm12,%xmm4
- .byte 102,65,15,253,253 // paddw %xmm13,%xmm7
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,65,15,253,195 // paddw %xmm11,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,103,195 // packuswb %xmm3,%xmm0
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,218,247 // pminub %xmm7,%xmm6
- .byte 102,15,218,232 // pminub %xmm0,%xmm5
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,248,221 // psubb %xmm5,%xmm3
- .byte 102,65,15,111,226 // movdqa %xmm10,%xmm4
- .byte 102,15,248,230 // psubb %xmm6,%xmm4
- .byte 102,15,248,200 // psubb %xmm0,%xmm1
- .byte 102,68,15,248,215 // psubb %xmm7,%xmm10
- .byte 15,40,5,43,188,0,0 // movaps 0xbc2b(%rip),%xmm0 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0x1684>
- .byte 102,68,15,56,16,212 // pblendvb %xmm0,%xmm4,%xmm10
- .byte 102,15,56,16,203 // pblendvb %xmm0,%xmm3,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_sse41_8bit
-.globl _sk_exclusion_sse41_8bit
-FUNCTION(_sk_exclusion_sse41_8bit)
-_sk_exclusion_sse41_8bit:
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,68,15,56,48,220 // pmovzxbw %xmm4,%xmm11
- .byte 102,68,15,56,48,208 // pmovzxbw %xmm0,%xmm10
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,68,15,56,48,196 // pmovzxbw %xmm4,%xmm8
- .byte 102,68,15,56,48,201 // pmovzxbw %xmm1,%xmm9
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,15,56,48,252 // pmovzxbw %xmm4,%xmm7
- .byte 102,15,56,48,226 // pmovzxbw %xmm2,%xmm4
- .byte 102,15,112,235,78 // pshufd $0x4e,%xmm3,%xmm5
- .byte 102,15,56,48,245 // pmovzxbw %xmm5,%xmm6
- .byte 102,15,56,48,235 // pmovzxbw %xmm3,%xmm5
- .byte 102,65,15,213,233 // pmullw %xmm9,%xmm5
- .byte 102,65,15,213,240 // pmullw %xmm8,%xmm6
- .byte 102,65,15,213,226 // pmullw %xmm10,%xmm4
- .byte 102,65,15,213,251 // pmullw %xmm11,%xmm7
- .byte 102,65,15,253,251 // paddw %xmm11,%xmm7
- .byte 102,65,15,253,226 // paddw %xmm10,%xmm4
- .byte 102,65,15,253,240 // paddw %xmm8,%xmm6
- .byte 102,65,15,253,233 // paddw %xmm9,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,231 // packuswb %xmm7,%xmm4
- .byte 102,15,111,53,134,187,0,0 // movdqa 0xbb86(%rip),%xmm6 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0x1684>
- .byte 102,15,252,203 // paddb %xmm3,%xmm1
- .byte 102,15,248,205 // psubb %xmm5,%xmm1
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,248,205 // psubb %xmm5,%xmm1
- .byte 102,15,248,196 // psubb %xmm4,%xmm0
- .byte 102,15,248,198 // psubb %xmm6,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_sse41_8bit
-.globl _sk_difference_sse41_8bit
-FUNCTION(_sk_difference_sse41_8bit)
-_sk_difference_sse41_8bit:
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,68,15,111,21,132,186,0,0 // movdqa 0xba84(%rip),%xmm10 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,65,15,112,225,78 // pshufd $0x4e,%xmm9,%xmm4
- .byte 102,15,127,100,36,232 // movdqa %xmm4,-0x18(%rsp)
- .byte 102,69,15,56,48,217 // pmovzxbw %xmm9,%xmm11
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,68,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm12
- .byte 102,68,15,56,48,240 // pmovzxbw %xmm0,%xmm14
- .byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,15,127,100,36,216 // movdqa %xmm4,-0x28(%rsp)
- .byte 102,68,15,56,48,234 // pmovzxbw %xmm2,%xmm13
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
- .byte 102,65,15,56,48,236 // pmovzxbw %xmm12,%xmm5
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,15,112,254,78 // pshufd $0x4e,%xmm6,%xmm7
- .byte 102,15,56,48,255 // pmovzxbw %xmm7,%xmm7
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,253,253 // paddw %xmm5,%xmm7
- .byte 102,68,15,56,48,225 // pmovzxbw %xmm1,%xmm12
- .byte 102,15,56,48,246 // pmovzxbw %xmm6,%xmm6
- .byte 102,65,15,213,246 // pmullw %xmm14,%xmm6
- .byte 102,65,15,253,246 // paddw %xmm14,%xmm6
- .byte 102,65,15,112,216,78 // pshufd $0x4e,%xmm8,%xmm3
- .byte 102,15,56,48,219 // pmovzxbw %xmm3,%xmm3
- .byte 102,15,213,220 // pmullw %xmm4,%xmm3
- .byte 102,15,253,220 // paddw %xmm4,%xmm3
- .byte 102,68,15,111,241 // movdqa %xmm1,%xmm14
- .byte 102,65,15,252,201 // paddb %xmm9,%xmm1
- .byte 102,65,15,56,48,232 // pmovzxbw %xmm8,%xmm5
- .byte 102,65,15,213,236 // pmullw %xmm12,%xmm5
- .byte 102,65,15,253,236 // paddw %xmm12,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,103,235 // packuswb %xmm3,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,247 // packuswb %xmm7,%xmm6
- .byte 102,69,15,56,0,242 // pshufb %xmm10,%xmm14
- .byte 102,69,15,56,0,250 // pshufb %xmm10,%xmm15
- .byte 102,68,15,56,48,84,36,216 // pmovzxbw -0x28(%rsp),%xmm10
- .byte 102,68,15,56,48,68,36,232 // pmovzxbw -0x18(%rsp),%xmm8
- .byte 102,65,15,112,255,78 // pshufd $0x4e,%xmm15,%xmm7
- .byte 102,68,15,56,48,231 // pmovzxbw %xmm7,%xmm12
- .byte 102,65,15,56,48,223 // pmovzxbw %xmm15,%xmm3
- .byte 102,65,15,112,230,78 // pshufd $0x4e,%xmm14,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,65,15,56,48,254 // pmovzxbw %xmm14,%xmm7
- .byte 102,65,15,213,251 // pmullw %xmm11,%xmm7
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,65,15,213,221 // pmullw %xmm13,%xmm3
- .byte 102,69,15,213,226 // pmullw %xmm10,%xmm12
- .byte 102,69,15,253,226 // paddw %xmm10,%xmm12
- .byte 102,65,15,253,221 // paddw %xmm13,%xmm3
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,65,15,253,251 // paddw %xmm11,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,218,253 // pminub %xmm5,%xmm7
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,65,15,103,220 // packuswb %xmm12,%xmm3
- .byte 102,15,218,222 // pminub %xmm6,%xmm3
- .byte 102,15,111,37,242,185,0,0 // movdqa 0xb9f2(%rip),%xmm4 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0x1684>
- .byte 102,15,248,207 // psubb %xmm7,%xmm1
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,248,207 // psubb %xmm7,%xmm1
- .byte 102,15,248,195 // psubb %xmm3,%xmm0
- .byte 102,15,248,196 // psubb %xmm4,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_sse41_8bit
-.globl _sk_hardlight_sse41_8bit
-FUNCTION(_sk_hardlight_sse41_8bit)
-_sk_hardlight_sse41_8bit:
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 102,68,15,111,233 // movdqa %xmm1,%xmm13
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,56,48,201 // pmovzxbw %xmm1,%xmm1
- .byte 102,15,56,48,248 // pmovzxbw %xmm0,%xmm7
- .byte 102,68,15,111,37,224,184,0,0 // movdqa 0xb8e0(%rip),%xmm12 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,65,15,56,0,196 // pshufb %xmm12,%xmm0
- .byte 102,15,56,48,240 // pmovzxbw %xmm0,%xmm6
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,56,48,224 // pmovzxbw %xmm0,%xmm4
- .byte 102,15,127,20,36 // movdqa %xmm2,(%rsp)
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,68,15,56,48,200 // pmovzxbw %xmm0,%xmm9
- .byte 102,68,15,56,48,210 // pmovzxbw %xmm2,%xmm10
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,65,15,56,0,196 // pshufb %xmm12,%xmm0
- .byte 102,68,15,56,48,240 // pmovzxbw %xmm0,%xmm14
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5
- .byte 102,15,127,108,36,144 // movdqa %xmm5,-0x70(%rsp)
- .byte 102,68,15,111,252 // movdqa %xmm4,%xmm15
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,127,84,36,224 // movdqa %xmm2,-0x20(%rsp)
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,101,196 // pcmpgtw %xmm4,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,127,76,36,240 // movdqa %xmm9,-0x10(%rsp)
- .byte 102,65,15,249,233 // psubw %xmm9,%xmm5
- .byte 102,15,249,226 // psubw %xmm2,%xmm4
- .byte 102,15,213,229 // pmullw %xmm5,%xmm4
- .byte 102,68,15,127,116,36,128 // movdqa %xmm14,-0x80(%rsp)
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,249,204 // psubw %xmm4,%xmm1
- .byte 102,68,15,213,202 // pmullw %xmm2,%xmm9
- .byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,68,15,56,16,201 // pblendvb %xmm0,%xmm1,%xmm9
- .byte 102,15,127,124,36,208 // movdqa %xmm7,-0x30(%rsp)
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,101,198 // pcmpgtw %xmm6,%xmm0
- .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,68,15,127,84,36,192 // movdqa %xmm10,-0x40(%rsp)
- .byte 102,69,15,249,242 // psubw %xmm10,%xmm14
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,15,249,247 // psubw %xmm7,%xmm6
- .byte 102,65,15,213,246 // pmullw %xmm14,%xmm6
- .byte 102,15,253,246 // paddw %xmm6,%xmm6
- .byte 102,15,249,206 // psubw %xmm6,%xmm1
- .byte 102,69,15,111,242 // movdqa %xmm10,%xmm14
- .byte 102,68,15,213,247 // pmullw %xmm7,%xmm14
- .byte 102,69,15,253,246 // paddw %xmm14,%xmm14
- .byte 102,68,15,56,16,241 // pblendvb %xmm0,%xmm1,%xmm14
- .byte 102,65,15,112,197,78 // pshufd $0x4e,%xmm13,%xmm0
- .byte 102,69,15,56,48,221 // pmovzxbw %xmm13,%xmm11
- .byte 102,69,15,56,0,236 // pshufb %xmm12,%xmm13
- .byte 102,15,127,92,36,160 // movdqa %xmm3,-0x60(%rsp)
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,65,15,56,0,236 // pshufb %xmm12,%xmm5
- .byte 102,68,15,56,48,208 // pmovzxbw %xmm0,%xmm10
- .byte 102,65,15,112,197,78 // pshufd $0x4e,%xmm13,%xmm0
- .byte 102,15,56,48,240 // pmovzxbw %xmm0,%xmm6
- .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0
- .byte 102,68,15,56,48,224 // pmovzxbw %xmm0,%xmm12
- .byte 102,68,15,127,100,36,176 // movdqa %xmm12,-0x50(%rsp)
- .byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,65,15,111,218 // movdqa %xmm10,%xmm3
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,15,101,222 // pcmpgtw %xmm6,%xmm3
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,65,15,249,196 // psubw %xmm12,%xmm0
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,65,15,249,242 // psubw %xmm10,%xmm6
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,15,253,246 // paddw %xmm6,%xmm6
- .byte 102,15,249,206 // psubw %xmm6,%xmm1
- .byte 102,69,15,213,226 // pmullw %xmm10,%xmm12
- .byte 102,69,15,253,228 // paddw %xmm12,%xmm12
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,56,16,225 // pblendvb %xmm0,%xmm1,%xmm12
- .byte 102,65,15,56,48,221 // pmovzxbw %xmm13,%xmm3
- .byte 102,68,15,56,48,237 // pmovzxbw %xmm5,%xmm13
- .byte 102,15,111,13,211,175,0,0 // movdqa 0xafd3(%rip),%xmm1 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,111,68,36,144 // movdqa -0x70(%rsp),%xmm0
- .byte 102,15,239,193 // pxor %xmm1,%xmm0
- .byte 102,15,127,68,36,144 // movdqa %xmm0,-0x70(%rsp)
- .byte 102,15,111,68,36,128 // movdqa -0x80(%rsp),%xmm0
- .byte 102,15,239,193 // pxor %xmm1,%xmm0
- .byte 102,15,127,68,36,128 // movdqa %xmm0,-0x80(%rsp)
- .byte 102,68,15,239,193 // pxor %xmm1,%xmm8
- .byte 102,65,15,111,245 // movdqa %xmm13,%xmm6
- .byte 102,15,239,241 // pxor %xmm1,%xmm6
- .byte 102,68,15,239,249 // pxor %xmm1,%xmm15
- .byte 102,15,239,225 // pxor %xmm1,%xmm4
- .byte 102,15,239,209 // pxor %xmm1,%xmm2
- .byte 102,15,239,203 // pxor %xmm3,%xmm1
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,101,195 // pcmpgtw %xmm3,%xmm0
- .byte 102,65,15,111,237 // movdqa %xmm13,%xmm5
- .byte 102,15,213,235 // pmullw %xmm3,%xmm5
- .byte 102,15,56,48,124,36,160 // pmovzxbw -0x60(%rsp),%xmm7
- .byte 102,68,15,249,239 // psubw %xmm7,%xmm13
- .byte 102,65,15,249,219 // psubw %xmm11,%xmm3
- .byte 102,65,15,213,221 // pmullw %xmm13,%xmm3
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,15,249,235 // psubw %xmm3,%xmm5
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 102,65,15,213,219 // pmullw %xmm11,%xmm3
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,15,56,16,221 // pblendvb %xmm0,%xmm5,%xmm3
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,15,213,84,36,176 // pmullw -0x50(%rsp),%xmm2
- .byte 102,15,213,100,36,192 // pmullw -0x40(%rsp),%xmm4
- .byte 102,68,15,213,124,36,240 // pmullw -0x10(%rsp),%xmm15
- .byte 102,65,15,213,243 // pmullw %xmm11,%xmm6
- .byte 102,69,15,213,194 // pmullw %xmm10,%xmm8
- .byte 102,15,111,108,36,128 // movdqa -0x80(%rsp),%xmm5
- .byte 102,15,213,108,36,208 // pmullw -0x30(%rsp),%xmm5
- .byte 102,15,111,68,36,144 // movdqa -0x70(%rsp),%xmm0
- .byte 102,15,213,68,36,224 // pmullw -0x20(%rsp),%xmm0
- .byte 102,15,253,206 // paddw %xmm6,%xmm1
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,253,229 // paddw %xmm5,%xmm4
- .byte 102,68,15,253,248 // paddw %xmm0,%xmm15
- .byte 102,15,111,5,75,183,0,0 // movdqa 0xb74b(%rip),%xmm0 # 34110 <_sk_srcover_rgba_8888_sse2_lowp+0x1694>
- .byte 102,68,15,253,248 // paddw %xmm0,%xmm15
- .byte 102,69,15,253,249 // paddw %xmm9,%xmm15
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,65,15,253,230 // paddw %xmm14,%xmm4
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,65,15,253,212 // paddw %xmm12,%xmm2
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,111,5,47,183,0,0 // movdqa 0xb72f(%rip),%xmm0 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0x16a4>
- .byte 102,15,228,200 // pmulhuw %xmm0,%xmm1
- .byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,228,208 // pmulhuw %xmm0,%xmm2
- .byte 102,15,113,210,7 // psrlw $0x7,%xmm2
- .byte 102,15,103,202 // packuswb %xmm2,%xmm1
- .byte 102,15,228,224 // pmulhuw %xmm0,%xmm4
- .byte 102,68,15,228,248 // pmulhuw %xmm0,%xmm15
- .byte 102,15,113,212,7 // psrlw $0x7,%xmm4
- .byte 102,65,15,113,215,7 // psrlw $0x7,%xmm15
- .byte 102,65,15,103,231 // packuswb %xmm15,%xmm4
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,20,36 // movaps (%rsp),%xmm2
- .byte 15,40,92,36,160 // movaps -0x60(%rsp),%xmm3
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_sse41_8bit
-.globl _sk_overlay_sse41_8bit
-FUNCTION(_sk_overlay_sse41_8bit)
-_sk_overlay_sse41_8bit:
- .byte 72,131,236,40 // sub $0x28,%rsp
- .byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,56,48,244 // pmovzxbw %xmm4,%xmm6
- .byte 102,68,15,56,48,192 // pmovzxbw %xmm0,%xmm8
- .byte 102,68,15,111,45,217,181,0,0 // movdqa 0xb5d9(%rip),%xmm13 # 34030 <_sk_srcover_rgba_8888_sse2_lowp+0x15b4>
- .byte 102,65,15,56,0,197 // pshufb %xmm13,%xmm0
- .byte 102,68,15,56,48,248 // pmovzxbw %xmm0,%xmm15
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,56,48,224 // pmovzxbw %xmm0,%xmm4
- .byte 102,15,127,84,36,16 // movdqa %xmm2,0x10(%rsp)
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,68,15,56,48,224 // pmovzxbw %xmm0,%xmm12
- .byte 102,68,15,56,48,202 // pmovzxbw %xmm2,%xmm9
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,65,15,56,0,197 // pshufb %xmm13,%xmm0
- .byte 102,68,15,56,48,216 // pmovzxbw %xmm0,%xmm11
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,56,48,232 // pmovzxbw %xmm0,%xmm5
- .byte 102,15,127,108,36,144 // movdqa %xmm5,-0x70(%rsp)
- .byte 102,68,15,111,244 // movdqa %xmm4,%xmm14
- .byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,101,197 // pcmpgtw %xmm5,%xmm0
- .byte 102,15,111,253 // movdqa %xmm5,%xmm7
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,65,15,249,236 // psubw %xmm12,%xmm5
- .byte 102,68,15,127,36,36 // movdqa %xmm12,(%rsp)
- .byte 102,15,127,116,36,240 // movdqa %xmm6,-0x10(%rsp)
- .byte 102,15,249,230 // psubw %xmm6,%xmm4
- .byte 102,15,213,229 // pmullw %xmm5,%xmm4
- .byte 102,68,15,127,92,36,128 // movdqa %xmm11,-0x80(%rsp)
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,249,252 // psubw %xmm4,%xmm7
- .byte 102,68,15,213,230 // pmullw %xmm6,%xmm12
- .byte 102,69,15,253,228 // paddw %xmm12,%xmm12
- .byte 102,68,15,56,16,231 // pblendvb %xmm0,%xmm7,%xmm12
- .byte 102,68,15,127,76,36,192 // movdqa %xmm9,-0x40(%rsp)
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,65,15,101,195 // pcmpgtw %xmm11,%xmm0
- .byte 102,65,15,111,251 // movdqa %xmm11,%xmm7
- .byte 102,65,15,213,255 // pmullw %xmm15,%xmm7
- .byte 102,69,15,249,217 // psubw %xmm9,%xmm11
- .byte 102,65,15,111,247 // movdqa %xmm15,%xmm6
- .byte 102,68,15,127,68,36,208 // movdqa %xmm8,-0x30(%rsp)
- .byte 102,69,15,249,248 // psubw %xmm8,%xmm15
- .byte 102,69,15,213,251 // pmullw %xmm11,%xmm15
- .byte 102,69,15,253,255 // paddw %xmm15,%xmm15
- .byte 102,65,15,249,255 // psubw %xmm15,%xmm7
- .byte 102,69,15,111,249 // movdqa %xmm9,%xmm15
- .byte 102,69,15,213,248 // pmullw %xmm8,%xmm15
- .byte 102,69,15,253,255 // paddw %xmm15,%xmm15
- .byte 102,68,15,56,16,255 // pblendvb %xmm0,%xmm7,%xmm15
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,56,48,209 // pmovzxbw %xmm1,%xmm2
- .byte 102,15,127,84,36,176 // movdqa %xmm2,-0x50(%rsp)
- .byte 102,65,15,56,0,205 // pshufb %xmm13,%xmm1
- .byte 102,65,15,111,234 // movdqa %xmm10,%xmm5
- .byte 102,65,15,56,0,237 // pshufb %xmm13,%xmm5
- .byte 102,15,56,48,224 // pmovzxbw %xmm0,%xmm4
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,68,15,111,233 // movdqa %xmm1,%xmm13
- .byte 102,15,56,48,248 // pmovzxbw %xmm0,%xmm7
- .byte 102,65,15,112,194,78 // pshufd $0x4e,%xmm10,%xmm0
- .byte 102,68,15,127,84,36,224 // movdqa %xmm10,-0x20(%rsp)
- .byte 102,68,15,56,48,216 // pmovzxbw %xmm0,%xmm11
- .byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,65,15,111,219 // movdqa %xmm11,%xmm3
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,15,101,216 // pcmpgtw %xmm0,%xmm3
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,65,15,249,195 // psubw %xmm11,%xmm0
- .byte 102,15,111,215 // movdqa %xmm7,%xmm2
- .byte 102,15,249,252 // psubw %xmm4,%xmm7
- .byte 102,15,127,100,36,160 // movdqa %xmm4,-0x60(%rsp)
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,15,253,255 // paddw %xmm7,%xmm7
- .byte 102,15,249,207 // psubw %xmm7,%xmm1
- .byte 102,69,15,111,203 // movdqa %xmm11,%xmm9
- .byte 102,68,15,213,204 // pmullw %xmm4,%xmm9
- .byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,56,16,201 // pblendvb %xmm0,%xmm1,%xmm9
- .byte 102,65,15,56,48,221 // pmovzxbw %xmm13,%xmm3
- .byte 102,15,56,48,237 // pmovzxbw %xmm5,%xmm5
- .byte 102,15,111,13,186,172,0,0 // movdqa 0xacba(%rip),%xmm1 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,111,68,36,144 // movdqa -0x70(%rsp),%xmm0
- .byte 102,15,239,193 // pxor %xmm1,%xmm0
- .byte 102,15,127,68,36,144 // movdqa %xmm0,-0x70(%rsp)
- .byte 102,15,111,68,36,128 // movdqa -0x80(%rsp),%xmm0
- .byte 102,15,239,193 // pxor %xmm1,%xmm0
- .byte 102,15,127,68,36,128 // movdqa %xmm0,-0x80(%rsp)
- .byte 102,68,15,239,193 // pxor %xmm1,%xmm8
- .byte 102,68,15,111,237 // movdqa %xmm5,%xmm13
- .byte 102,68,15,239,233 // pxor %xmm1,%xmm13
- .byte 102,68,15,239,241 // pxor %xmm1,%xmm14
- .byte 102,15,239,241 // pxor %xmm1,%xmm6
- .byte 102,15,239,209 // pxor %xmm1,%xmm2
- .byte 102,15,239,203 // pxor %xmm3,%xmm1
- .byte 102,65,15,56,48,250 // pmovzxbw %xmm10,%xmm7
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,101,197 // pcmpgtw %xmm5,%xmm0
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,213,227 // pmullw %xmm3,%xmm4
- .byte 102,15,249,239 // psubw %xmm7,%xmm5
- .byte 102,68,15,111,84,36,176 // movdqa -0x50(%rsp),%xmm10
- .byte 102,65,15,249,218 // psubw %xmm10,%xmm3
- .byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,15,249,227 // psubw %xmm3,%xmm4
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 102,65,15,213,218 // pmullw %xmm10,%xmm3
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,15,56,16,220 // pblendvb %xmm0,%xmm4,%xmm3
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,65,15,213,211 // pmullw %xmm11,%xmm2
- .byte 102,15,213,116,36,192 // pmullw -0x40(%rsp),%xmm6
- .byte 102,68,15,213,52,36 // pmullw (%rsp),%xmm14
- .byte 102,69,15,213,234 // pmullw %xmm10,%xmm13
- .byte 102,68,15,213,68,36,160 // pmullw -0x60(%rsp),%xmm8
- .byte 102,15,111,100,36,128 // movdqa -0x80(%rsp),%xmm4
- .byte 102,15,213,100,36,208 // pmullw -0x30(%rsp),%xmm4
- .byte 102,15,111,68,36,144 // movdqa -0x70(%rsp),%xmm0
- .byte 102,15,213,68,36,240 // pmullw -0x10(%rsp),%xmm0
- .byte 102,65,15,253,205 // paddw %xmm13,%xmm1
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,253,244 // paddw %xmm4,%xmm6
- .byte 102,68,15,253,240 // paddw %xmm0,%xmm14
- .byte 102,15,111,5,46,180,0,0 // movdqa 0xb42e(%rip),%xmm0 # 34110 <_sk_srcover_rgba_8888_sse2_lowp+0x1694>
- .byte 102,68,15,253,240 // paddw %xmm0,%xmm14
- .byte 102,69,15,253,244 // paddw %xmm12,%xmm14
- .byte 102,15,253,240 // paddw %xmm0,%xmm6
- .byte 102,65,15,253,247 // paddw %xmm15,%xmm6
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,111,5,18,180,0,0 // movdqa 0xb412(%rip),%xmm0 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0x16a4>
- .byte 102,15,228,200 // pmulhuw %xmm0,%xmm1
- .byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,228,208 // pmulhuw %xmm0,%xmm2
- .byte 102,15,113,210,7 // psrlw $0x7,%xmm2
- .byte 102,15,103,202 // packuswb %xmm2,%xmm1
- .byte 102,15,228,240 // pmulhuw %xmm0,%xmm6
- .byte 102,68,15,228,240 // pmulhuw %xmm0,%xmm14
- .byte 102,15,113,214,7 // psrlw $0x7,%xmm6
- .byte 102,65,15,113,214,7 // psrlw $0x7,%xmm14
- .byte 102,65,15,103,246 // packuswb %xmm14,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,84,36,16 // movaps 0x10(%rsp),%xmm2
- .byte 15,40,92,36,224 // movaps -0x20(%rsp),%xmm3
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 72,131,196,40 // add $0x28,%rsp
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
-
-HIDDEN _sk_start_pipeline_sse2_8bit
-.globl _sk_start_pipeline_sse2_8bit
-FUNCTION(_sk_start_pipeline_sse2_8bit)
-_sk_start_pipeline_sse2_8bit:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 115,83 // jae 28dd6 <_sk_start_pipeline_sse2_8bit+0x82>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,8 // lea 0x8(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,35 // ja 28dbc <_sk_start_pipeline_sse2_8bit+0x68>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,8 // lea 0x8(%r12),%rdx
- .byte 73,131,196,16 // add $0x10,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,225 // jbe 28d9d <_sk_start_pipeline_sse2_8bit+0x49>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,9 // je 28dcd <_sk_start_pipeline_sse2_8bit+0x79>
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,255,195 // inc %rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,185 // jne 28d8f <_sk_start_pipeline_sse2_8bit+0x3b>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 195 // retq
-
-HIDDEN _sk_just_return_sse2_8bit
-.globl _sk_just_return_sse2_8bit
-FUNCTION(_sk_just_return_sse2_8bit)
-_sk_just_return_sse2_8bit:
- .byte 195 // retq
-
-HIDDEN _sk_uniform_color_sse2_8bit
-.globl _sk_uniform_color_sse2_8bit
-FUNCTION(_sk_uniform_color_sse2_8bit)
-_sk_uniform_color_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,110,64,16 // movd 0x10(%rax),%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_sse2_8bit
-.globl _sk_set_rgb_sse2_8bit
-FUNCTION(_sk_set_rgb_sse2_8bit)
-_sk_set_rgb_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,37,48,169,0,0 // movss 0xa930(%rip),%xmm4 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 243,15,16,40 // movss (%rax),%xmm5
- .byte 243,15,89,236 // mulss %xmm4,%xmm5
- .byte 243,76,15,44,197 // cvttss2si %xmm5,%r8
- .byte 243,15,16,104,4 // movss 0x4(%rax),%xmm5
- .byte 243,15,89,236 // mulss %xmm4,%xmm5
- .byte 243,76,15,44,205 // cvttss2si %xmm5,%r9
- .byte 65,193,225,8 // shl $0x8,%r9d
- .byte 69,9,193 // or %r8d,%r9d
- .byte 243,15,89,96,8 // mulss 0x8(%rax),%xmm4
- .byte 243,72,15,44,196 // cvttss2si %xmm4,%rax
- .byte 193,224,16 // shl $0x10,%eax
- .byte 68,9,200 // or %r9d,%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,111,45,217,177,0,0 // movdqa 0xb1d9(%rip),%xmm5 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 102,15,219,205 // pand %xmm5,%xmm1
- .byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 102,15,235,196 // por %xmm4,%xmm0
- .byte 102,15,235,204 // por %xmm4,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_sse2_8bit
-.globl _sk_premul_sse2_8bit
-FUNCTION(_sk_premul_sse2_8bit)
-_sk_premul_sse2_8bit:
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 242,65,15,112,192,231 // pshuflw $0xe7,%xmm8,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,240,95 // pshufhw $0x5f,%xmm0,%xmm6
- .byte 242,15,112,193,231 // pshuflw $0xe7,%xmm1,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,248,95 // pshufhw $0x5f,%xmm0,%xmm7
- .byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,96,194 // punpcklbw %xmm10,%xmm0
- .byte 102,69,15,104,194 // punpckhbw %xmm10,%xmm8
- .byte 102,68,15,111,217 // movdqa %xmm1,%xmm11
- .byte 102,69,15,96,218 // punpcklbw %xmm10,%xmm11
- .byte 102,65,15,104,202 // punpckhbw %xmm10,%xmm1
- .byte 102,68,15,111,13,89,177,0,0 // movdqa 0xb159(%rip),%xmm9 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 102,65,15,235,249 // por %xmm9,%xmm7
- .byte 102,65,15,235,241 // por %xmm9,%xmm6
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,65,15,96,234 // punpcklbw %xmm10,%xmm5
- .byte 102,65,15,104,242 // punpckhbw %xmm10,%xmm6
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,65,15,96,226 // punpcklbw %xmm10,%xmm4
- .byte 102,65,15,104,250 // punpckhbw %xmm10,%xmm7
- .byte 102,15,213,249 // pmullw %xmm1,%xmm7
- .byte 102,65,15,213,227 // pmullw %xmm11,%xmm4
- .byte 102,65,15,213,240 // pmullw %xmm8,%xmm6
- .byte 102,15,213,232 // pmullw %xmm0,%xmm5
- .byte 102,15,253,197 // paddw %xmm5,%xmm0
- .byte 102,65,15,253,240 // paddw %xmm8,%xmm6
- .byte 102,68,15,253,220 // paddw %xmm4,%xmm11
- .byte 102,15,253,249 // paddw %xmm1,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,103,223 // packuswb %xmm7,%xmm11
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,198 // packuswb %xmm6,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_sse2_8bit
-.globl _sk_swap_rb_sse2_8bit
-FUNCTION(_sk_swap_rb_sse2_8bit)
-_sk_swap_rb_sse2_8bit:
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
- .byte 242,15,112,192,198 // pshuflw $0xc6,%xmm0,%xmm0
- .byte 243,15,112,192,198 // pshufhw $0xc6,%xmm0,%xmm0
- .byte 102,15,103,197 // packuswb %xmm5,%xmm0
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1
- .byte 242,15,112,201,198 // pshuflw $0xc6,%xmm1,%xmm1
- .byte 243,15,112,201,198 // pshufhw $0xc6,%xmm1,%xmm1
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_sse2_8bit
-.globl _sk_invert_sse2_8bit
-FUNCTION(_sk_invert_sse2_8bit)
-_sk_invert_sse2_8bit:
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,239,196 // pxor %xmm4,%xmm0
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_8888_sse2_8bit
-.globl _sk_load_8888_sse2_8bit
-FUNCTION(_sk_load_8888_sse2_8bit)
-_sk_load_8888_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,16 // jne 28fc4 <_sk_load_8888_sse2_8bit+0x2c>
- .byte 102,67,15,16,4,152 // movupd (%r8,%r11,4),%xmm0
- .byte 67,15,16,76,152,16 // movups 0x10(%r8,%r11,4),%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,228 // ja 28fc0 <_sk_load_8888_sse2_8bit+0x28>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,89,0,0,0 // lea 0x59(%rip),%r10 # 29040 <_sk_load_8888_sse2_8bit+0xa8>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 243,67,15,16,4,152 // movss (%r8,%r11,4),%xmm0
- .byte 235,200 // jmp 28fc0 <_sk_load_8888_sse2_8bit+0x28>
- .byte 102,67,15,110,68,152,8 // movd 0x8(%r8,%r11,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 102,67,15,18,4,152 // movlpd (%r8,%r11,4),%xmm0
- .byte 235,180 // jmp 28fc0 <_sk_load_8888_sse2_8bit+0x28>
- .byte 102,67,15,110,68,152,24 // movd 0x18(%r8,%r11,4),%xmm0
- .byte 102,15,112,200,69 // pshufd $0x45,%xmm0,%xmm1
- .byte 243,67,15,16,68,152,20 // movss 0x14(%r8,%r11,4),%xmm0
- .byte 15,198,193,0 // shufps $0x0,%xmm1,%xmm0
- .byte 15,198,193,226 // shufps $0xe2,%xmm1,%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 243,67,15,16,68,152,16 // movss 0x10(%r8,%r11,4),%xmm0
- .byte 243,15,16,200 // movss %xmm0,%xmm1
- .byte 102,67,15,16,4,152 // movupd (%r8,%r11,4),%xmm0
- .byte 235,131 // jmp 28fc0 <_sk_load_8888_sse2_8bit+0x28>
- .byte 15,31,0 // nopl (%rax)
- .byte 176,255 // mov $0xff,%al
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,245 // mov $0xf5ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_sse2_8bit
-.globl _sk_load_8888_dst_sse2_8bit
-FUNCTION(_sk_load_8888_dst_sse2_8bit)
-_sk_load_8888_dst_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,16 // jne 29088 <_sk_load_8888_dst_sse2_8bit+0x2c>
- .byte 102,67,15,16,20,152 // movupd (%r8,%r11,4),%xmm2
- .byte 67,15,16,92,152,16 // movups 0x10(%r8,%r11,4),%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,228 // ja 29084 <_sk_load_8888_dst_sse2_8bit+0x28>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,89,0,0,0 // lea 0x59(%rip),%r10 # 29104 <_sk_load_8888_dst_sse2_8bit+0xa8>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 243,67,15,16,20,152 // movss (%r8,%r11,4),%xmm2
- .byte 235,200 // jmp 29084 <_sk_load_8888_dst_sse2_8bit+0x28>
- .byte 102,67,15,110,84,152,8 // movd 0x8(%r8,%r11,4),%xmm2
- .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2
- .byte 102,67,15,18,20,152 // movlpd (%r8,%r11,4),%xmm2
- .byte 235,180 // jmp 29084 <_sk_load_8888_dst_sse2_8bit+0x28>
- .byte 102,67,15,110,84,152,24 // movd 0x18(%r8,%r11,4),%xmm2
- .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
- .byte 243,67,15,16,84,152,20 // movss 0x14(%r8,%r11,4),%xmm2
- .byte 15,198,211,0 // shufps $0x0,%xmm3,%xmm2
- .byte 15,198,211,226 // shufps $0xe2,%xmm3,%xmm2
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 243,67,15,16,84,152,16 // movss 0x10(%r8,%r11,4),%xmm2
- .byte 243,15,16,218 // movss %xmm2,%xmm3
- .byte 102,67,15,16,20,152 // movupd (%r8,%r11,4),%xmm2
- .byte 235,131 // jmp 29084 <_sk_load_8888_dst_sse2_8bit+0x28>
- .byte 15,31,0 // nopl (%rax)
- .byte 176,255 // mov $0xff,%al
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,245 // mov $0xf5ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_8888_sse2_8bit
-.globl _sk_store_8888_sse2_8bit
-FUNCTION(_sk_store_8888_sse2_8bit)
-_sk_store_8888_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,17 // jne 2914d <_sk_store_8888_sse2_8bit+0x2d>
- .byte 243,67,15,127,4,152 // movdqu %xmm0,(%r8,%r11,4)
- .byte 243,67,15,127,76,152,16 // movdqu %xmm1,0x10(%r8,%r11,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 29149 <_sk_store_8888_sse2_8bit+0x29>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,76,0,0,0 // lea 0x4c(%rip),%r10 # 291b4 <_sk_store_8888_sse2_8bit+0x94>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,126,4,152 // movd %xmm0,(%r8,%r11,4)
- .byte 235,208 // jmp 29149 <_sk_store_8888_sse2_8bit+0x29>
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,67,15,126,100,152,8 // movd %xmm4,0x8(%r8,%r11,4)
- .byte 102,67,15,214,4,152 // movq %xmm0,(%r8,%r11,4)
- .byte 235,188 // jmp 29149 <_sk_store_8888_sse2_8bit+0x29>
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,67,15,126,100,152,24 // movd %xmm4,0x18(%r8,%r11,4)
- .byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4
- .byte 102,67,15,126,100,152,20 // movd %xmm4,0x14(%r8,%r11,4)
- .byte 102,67,15,126,76,152,16 // movd %xmm1,0x10(%r8,%r11,4)
- .byte 243,67,15,127,4,152 // movdqu %xmm0,(%r8,%r11,4)
- .byte 235,149 // jmp 29149 <_sk_store_8888_sse2_8bit+0x29>
- .byte 189,255,255,255,209 // mov $0xd1ffffff,%ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 248 // clc
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,241 // push %rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_sse2_8bit
-.globl _sk_load_bgra_sse2_8bit
-FUNCTION(_sk_load_bgra_sse2_8bit)
-_sk_load_bgra_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,92 // jne 29248 <_sk_load_bgra_sse2_8bit+0x78>
- .byte 102,67,15,16,4,152 // movupd (%r8,%r11,4),%xmm0
- .byte 67,15,16,76,152,16 // movups 0x10(%r8,%r11,4),%xmm1
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,40,232 // movapd %xmm0,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
- .byte 242,15,112,192,198 // pshuflw $0xc6,%xmm0,%xmm0
- .byte 243,15,112,192,198 // pshufhw $0xc6,%xmm0,%xmm0
- .byte 102,15,103,197 // packuswb %xmm5,%xmm0
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1
- .byte 242,15,112,201,198 // pshuflw $0xc6,%xmm1,%xmm1
- .byte 243,15,112,201,198 // pshufhw $0xc6,%xmm1,%xmm1
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,152 // ja 291f8 <_sk_load_bgra_sse2_8bit+0x28>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 292cc <_sk_load_bgra_sse2_8bit+0xfc>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 243,67,15,16,4,152 // movss (%r8,%r11,4),%xmm0
- .byte 233,121,255,255,255 // jmpq 291f8 <_sk_load_bgra_sse2_8bit+0x28>
- .byte 102,67,15,110,68,152,8 // movd 0x8(%r8,%r11,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 102,67,15,18,4,152 // movlpd (%r8,%r11,4),%xmm0
- .byte 233,98,255,255,255 // jmpq 291f8 <_sk_load_bgra_sse2_8bit+0x28>
- .byte 102,67,15,110,68,152,24 // movd 0x18(%r8,%r11,4),%xmm0
- .byte 102,15,112,200,69 // pshufd $0x45,%xmm0,%xmm1
- .byte 243,67,15,16,68,152,20 // movss 0x14(%r8,%r11,4),%xmm0
- .byte 15,198,193,0 // shufps $0x0,%xmm1,%xmm0
- .byte 15,198,193,226 // shufps $0xe2,%xmm1,%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 243,67,15,16,68,152,16 // movss 0x10(%r8,%r11,4),%xmm0
- .byte 243,15,16,200 // movss %xmm0,%xmm1
- .byte 102,67,15,16,4,152 // movupd (%r8,%r11,4),%xmm0
- .byte 233,46,255,255,255 // jmpq 291f8 <_sk_load_bgra_sse2_8bit+0x28>
- .byte 102,144 // xchg %ax,%ax
- .byte 168,255 // test $0xff,%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,243 // push %rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,214 // callq ffffffffd70292e0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffd6ff6864>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_sse2_8bit
-.globl _sk_load_bgra_dst_sse2_8bit
-FUNCTION(_sk_load_bgra_dst_sse2_8bit)
-_sk_load_bgra_dst_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,92 // jne 29360 <_sk_load_bgra_dst_sse2_8bit+0x78>
- .byte 102,67,15,16,20,152 // movupd (%r8,%r11,4),%xmm2
- .byte 67,15,16,92,152,16 // movups 0x10(%r8,%r11,4),%xmm3
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,40,234 // movapd %xmm2,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2
- .byte 242,15,112,210,198 // pshuflw $0xc6,%xmm2,%xmm2
- .byte 243,15,112,210,198 // pshufhw $0xc6,%xmm2,%xmm2
- .byte 102,15,103,213 // packuswb %xmm5,%xmm2
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,220 // punpcklbw %xmm4,%xmm3
- .byte 242,15,112,219,198 // pshuflw $0xc6,%xmm3,%xmm3
- .byte 243,15,112,219,198 // pshufhw $0xc6,%xmm3,%xmm3
- .byte 102,15,103,221 // packuswb %xmm5,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,152 // ja 29310 <_sk_load_bgra_dst_sse2_8bit+0x28>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 293e4 <_sk_load_bgra_dst_sse2_8bit+0xfc>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 243,67,15,16,20,152 // movss (%r8,%r11,4),%xmm2
- .byte 233,121,255,255,255 // jmpq 29310 <_sk_load_bgra_dst_sse2_8bit+0x28>
- .byte 102,67,15,110,84,152,8 // movd 0x8(%r8,%r11,4),%xmm2
- .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2
- .byte 102,67,15,18,20,152 // movlpd (%r8,%r11,4),%xmm2
- .byte 233,98,255,255,255 // jmpq 29310 <_sk_load_bgra_dst_sse2_8bit+0x28>
- .byte 102,67,15,110,84,152,24 // movd 0x18(%r8,%r11,4),%xmm2
- .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
- .byte 243,67,15,16,84,152,20 // movss 0x14(%r8,%r11,4),%xmm2
- .byte 15,198,211,0 // shufps $0x0,%xmm3,%xmm2
- .byte 15,198,211,226 // shufps $0xe2,%xmm3,%xmm2
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 243,67,15,16,84,152,16 // movss 0x10(%r8,%r11,4),%xmm2
- .byte 243,15,16,218 // movss %xmm2,%xmm3
- .byte 102,67,15,16,20,152 // movupd (%r8,%r11,4),%xmm2
- .byte 233,46,255,255,255 // jmpq 29310 <_sk_load_bgra_dst_sse2_8bit+0x28>
- .byte 102,144 // xchg %ax,%ax
- .byte 168,255 // test $0xff,%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,243 // push %rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,214 // callq ffffffffd70293f8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffd6ff697c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_bgra_sse2_8bit
-.globl _sk_store_bgra_sse2_8bit
-FUNCTION(_sk_store_bgra_sse2_8bit)
-_sk_store_bgra_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,104,229 // punpckhbw %xmm5,%xmm4
- .byte 242,15,112,228,198 // pshuflw $0xc6,%xmm4,%xmm4
- .byte 243,15,112,244,198 // pshufhw $0xc6,%xmm4,%xmm6
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,96,229 // punpcklbw %xmm5,%xmm4
- .byte 242,15,112,228,198 // pshuflw $0xc6,%xmm4,%xmm4
- .byte 243,15,112,228,198 // pshufhw $0xc6,%xmm4,%xmm4
- .byte 102,15,103,230 // packuswb %xmm6,%xmm4
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,104,245 // punpckhbw %xmm5,%xmm6
- .byte 242,15,112,246,198 // pshuflw $0xc6,%xmm6,%xmm6
- .byte 243,15,112,246,198 // pshufhw $0xc6,%xmm6,%xmm6
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,96,253 // punpcklbw %xmm5,%xmm7
- .byte 242,15,112,239,198 // pshuflw $0xc6,%xmm7,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,17 // jne 29481 <_sk_store_bgra_sse2_8bit+0x81>
- .byte 243,67,15,127,44,152 // movdqu %xmm5,(%r8,%r11,4)
- .byte 243,67,15,127,100,152,16 // movdqu %xmm4,0x10(%r8,%r11,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 2947d <_sk_store_bgra_sse2_8bit+0x7d>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,76,0,0,0 // lea 0x4c(%rip),%r10 # 294e8 <_sk_store_bgra_sse2_8bit+0xe8>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,126,44,152 // movd %xmm5,(%r8,%r11,4)
- .byte 235,208 // jmp 2947d <_sk_store_bgra_sse2_8bit+0x7d>
- .byte 102,15,112,229,78 // pshufd $0x4e,%xmm5,%xmm4
- .byte 102,67,15,126,100,152,8 // movd %xmm4,0x8(%r8,%r11,4)
- .byte 102,67,15,214,44,152 // movq %xmm5,(%r8,%r11,4)
- .byte 235,188 // jmp 2947d <_sk_store_bgra_sse2_8bit+0x7d>
- .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6
- .byte 102,67,15,126,116,152,24 // movd %xmm6,0x18(%r8,%r11,4)
- .byte 102,15,112,244,229 // pshufd $0xe5,%xmm4,%xmm6
- .byte 102,67,15,126,116,152,20 // movd %xmm6,0x14(%r8,%r11,4)
- .byte 102,67,15,126,100,152,16 // movd %xmm4,0x10(%r8,%r11,4)
- .byte 243,67,15,127,44,152 // movdqu %xmm5,(%r8,%r11,4)
- .byte 235,149 // jmp 2947d <_sk_store_bgra_sse2_8bit+0x7d>
- .byte 189,255,255,255,209 // mov $0xd1ffffff,%ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 248 // clc
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,241 // push %rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_565_sse2_8bit
-.globl _sk_store_565_sse2_8bit
-FUNCTION(_sk_store_565_sse2_8bit)
-_sk_store_565_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 102,15,111,37,46,171,0,0 // movdqa 0xab2e(%rip),%xmm4 # 34050 <_sk_srcover_rgba_8888_sse2_lowp+0x15d4>
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 102,15,114,244,8 // pslld $0x8,%xmm4
- .byte 102,15,114,245,8 // pslld $0x8,%xmm5
- .byte 102,15,111,53,32,171,0,0 // movdqa 0xab20(%rip),%xmm6 # 34060 <_sk_srcover_rgba_8888_sse2_lowp+0x15e4>
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 102,15,219,240 // pand %xmm0,%xmm6
- .byte 102,15,114,214,5 // psrld $0x5,%xmm6
- .byte 102,15,235,244 // por %xmm4,%xmm6
- .byte 102,15,114,215,5 // psrld $0x5,%xmm7
- .byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,45,10,171,0,0 // movdqa 0xab0a(%rip),%xmm5 # 34070 <_sk_srcover_rgba_8888_sse2_lowp+0x15f4>
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,219,229 // pand %xmm5,%xmm4
- .byte 102,15,219,233 // pand %xmm1,%xmm5
- .byte 102,15,114,213,19 // psrld $0x13,%xmm5
- .byte 102,15,235,239 // por %xmm7,%xmm5
- .byte 102,15,114,212,19 // psrld $0x13,%xmm4
- .byte 102,15,235,230 // por %xmm6,%xmm4
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,229 // packssdw %xmm5,%xmm4
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 295ab <_sk_store_565_sse2_8bit+0xa7>
- .byte 243,67,15,127,36,88 // movdqu %xmm4,(%r8,%r11,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 295a7 <_sk_store_565_sse2_8bit+0xa3>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # 29618 <_sk_store_565_sse2_8bit+0x114>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 102,67,137,4,88 // mov %ax,(%r8,%r11,2)
- .byte 235,205 // jmp 295a7 <_sk_store_565_sse2_8bit+0xa3>
- .byte 102,15,197,196,2 // pextrw $0x2,%xmm4,%eax
- .byte 102,67,137,68,88,4 // mov %ax,0x4(%r8,%r11,2)
- .byte 102,67,15,126,36,88 // movd %xmm4,(%r8,%r11,2)
- .byte 235,186 // jmp 295a7 <_sk_store_565_sse2_8bit+0xa3>
- .byte 102,15,197,196,6 // pextrw $0x6,%xmm4,%eax
- .byte 102,67,137,68,88,12 // mov %ax,0xc(%r8,%r11,2)
- .byte 102,15,197,196,5 // pextrw $0x5,%xmm4,%eax
- .byte 102,67,137,68,88,10 // mov %ax,0xa(%r8,%r11,2)
- .byte 102,15,197,196,4 // pextrw $0x4,%xmm4,%eax
- .byte 102,67,137,68,88,8 // mov %ax,0x8(%r8,%r11,2)
- .byte 102,67,15,214,36,88 // movq %xmm4,(%r8,%r11,2)
- .byte 235,145 // jmp 295a7 <_sk_store_565_sse2_8bit+0xa3>
- .byte 102,144 // xchg %ax,%ax
- .byte 183,255 // mov $0xff,%bh
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,246 // push %rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 235,255 // jmp 29629 <_sk_store_565_sse2_8bit+0x125>
- .byte 255 // (bad)
- .byte 255,224 // jmpq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_565_dst_sse2_8bit
-.globl _sk_load_565_dst_sse2_8bit
-FUNCTION(_sk_load_565_dst_sse2_8bit)
-_sk_load_565_dst_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,219,0,0,0 // jne 2972e <_sk_load_565_dst_sse2_8bit+0xfa>
- .byte 243,67,15,111,20,88 // movdqu (%r8,%r11,2),%xmm2
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
- .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
- .byte 102,15,111,53,207,164,0,0 // movdqa 0xa4cf(%rip),%xmm6 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 102,15,219,243 // pand %xmm3,%xmm6
- .byte 102,15,114,214,8 // psrld $0x8,%xmm6
- .byte 102,15,114,215,8 // psrld $0x8,%xmm7
- .byte 102,15,111,45,241,164,0,0 // movdqa 0xa4f1(%rip),%xmm5 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,219,229 // pand %xmm5,%xmm4
- .byte 102,15,219,235 // pand %xmm3,%xmm5
- .byte 102,15,114,245,19 // pslld $0x13,%xmm5
- .byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 102,15,114,244,19 // pslld $0x13,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 102,15,111,53,171,164,0,0 // movdqa 0xa4ab(%rip),%xmm6 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 102,15,114,247,5 // pslld $0x5,%xmm7
- .byte 102,68,15,111,5,213,169,0,0 // movdqa 0xa9d5(%rip),%xmm8 # 340a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1624>
- .byte 102,65,15,219,216 // pand %xmm8,%xmm3
- .byte 102,15,114,211,1 // psrld $0x1,%xmm3
- .byte 102,15,235,223 // por %xmm7,%xmm3
- .byte 102,15,235,221 // por %xmm5,%xmm3
- .byte 102,15,114,213,5 // psrld $0x5,%xmm5
- .byte 102,15,219,242 // pand %xmm2,%xmm6
- .byte 102,15,114,246,5 // pslld $0x5,%xmm6
- .byte 102,65,15,219,208 // pand %xmm8,%xmm2
- .byte 102,15,114,210,1 // psrld $0x1,%xmm2
- .byte 102,15,235,214 // por %xmm6,%xmm2
- .byte 102,15,235,212 // por %xmm4,%xmm2
- .byte 102,15,114,212,5 // psrld $0x5,%xmm4
- .byte 102,15,111,53,134,169,0,0 // movdqa 0xa986(%rip),%xmm6 # 34090 <_sk_srcover_rgba_8888_sse2_lowp+0x1614>
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 102,15,111,53,6,169,0,0 // movdqa 0xa906(%rip),%xmm6 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 102,15,235,214 // por %xmm6,%xmm2
- .byte 102,15,235,212 // por %xmm4,%xmm2
- .byte 102,15,235,222 // por %xmm6,%xmm3
- .byte 102,15,235,221 // por %xmm5,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,19,255,255,255 // ja 29659 <_sk_load_565_dst_sse2_8bit+0x25>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,91,0,0,0 // lea 0x5b(%rip),%r10 # 297ac <_sk_load_565_dst_sse2_8bit+0x178>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,241,254,255,255 // jmpq 29659 <_sk_load_565_dst_sse2_8bit+0x25>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,67,15,196,84,88,4,2 // pinsrw $0x2,0x4(%r8,%r11,2),%xmm2
- .byte 243,67,15,16,28,88 // movss (%r8,%r11,2),%xmm3
- .byte 243,15,16,211 // movss %xmm3,%xmm2
- .byte 233,214,254,255,255 // jmpq 29659 <_sk_load_565_dst_sse2_8bit+0x25>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,67,15,196,84,88,12,6 // pinsrw $0x6,0xc(%r8,%r11,2),%xmm2
- .byte 102,67,15,196,84,88,10,5 // pinsrw $0x5,0xa(%r8,%r11,2),%xmm2
- .byte 102,67,15,196,84,88,8,4 // pinsrw $0x4,0x8(%r8,%r11,2),%xmm2
- .byte 102,67,15,18,20,88 // movlpd (%r8,%r11,2),%xmm2
- .byte 233,175,254,255,255 // jmpq 29659 <_sk_load_565_dst_sse2_8bit+0x25>
- .byte 102,144 // xchg %ax,%ax
- .byte 174 // scas %es:(%rdi),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,200 // dec %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 188,255,255,255,243 // mov $0xf3ffffff,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 235,255 // jmp 297bd <_sk_load_565_dst_sse2_8bit+0x189>
- .byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_sse2_8bit
-.globl _sk_load_a8_sse2_8bit
-FUNCTION(_sk_load_a8_sse2_8bit)
-_sk_load_a8_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,48 // jne 29810 <_sk_load_a8_sse2_8bit+0x48>
- .byte 243,67,15,126,4,24 // movq (%r8,%r11,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 102,15,219,5,206,160,0,0 // pand 0xa0ce(%rip),%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,105,204 // punpckhwd %xmm4,%xmm1
- .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
- .byte 102,15,114,240,24 // pslld $0x18,%xmm0
- .byte 102,15,114,241,24 // pslld $0x18,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,198 // ja 297ea <_sk_load_a8_sse2_8bit+0x22>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,113,0,0,0 // lea 0x71(%rip),%r10 # 298a0 <_sk_load_a8_sse2_8bit+0xd8>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,167 // jmp 297ea <_sk_load_a8_sse2_8bit+0x22>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,133 // jmp 297ea <_sk_load_a8_sse2_8bit+0x22>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,192,5 // pinsrw $0x5,%eax,%xmm0
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,192,4 // pinsrw $0x4,%eax,%xmm0
- .byte 102,67,15,110,12,24 // movd (%r8,%r11,1),%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 233,77,255,255,255 // jmpq 297ea <_sk_load_a8_sse2_8bit+0x22>
- .byte 15,31,0 // nopl (%rax)
- .byte 152 // cwtl
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,178,255,255,255,163 // pushq -0x5c000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_sse2_8bit
-.globl _sk_load_a8_dst_sse2_8bit
-FUNCTION(_sk_load_a8_dst_sse2_8bit)
-_sk_load_a8_dst_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,48 // jne 29904 <_sk_load_a8_dst_sse2_8bit+0x48>
- .byte 243,67,15,126,20,24 // movq (%r8,%r11,1),%xmm2
- .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2
- .byte 102,15,219,21,218,159,0,0 // pand 0x9fda(%rip),%xmm2 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
- .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
- .byte 102,15,114,242,24 // pslld $0x18,%xmm2
- .byte 102,15,114,243,24 // pslld $0x18,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,198 // ja 298de <_sk_load_a8_dst_sse2_8bit+0x22>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,113,0,0,0 // lea 0x71(%rip),%r10 # 29994 <_sk_load_a8_dst_sse2_8bit+0xd8>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,167 // jmp 298de <_sk_load_a8_dst_sse2_8bit+0x22>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,196,208,2 // pinsrw $0x2,%eax,%xmm2
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 243,15,16,211 // movss %xmm3,%xmm2
- .byte 235,133 // jmp 298de <_sk_load_a8_dst_sse2_8bit+0x22>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,196,208,6 // pinsrw $0x6,%eax,%xmm2
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,208,5 // pinsrw $0x5,%eax,%xmm2
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,208,4 // pinsrw $0x4,%eax,%xmm2
- .byte 102,67,15,110,28,24 // movd (%r8,%r11,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 242,15,16,211 // movsd %xmm3,%xmm2
- .byte 233,77,255,255,255 // jmpq 298de <_sk_load_a8_dst_sse2_8bit+0x22>
- .byte 15,31,0 // nopl (%rax)
- .byte 152 // cwtl
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,178,255,255,255,163 // pushq -0x5c000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_a8_sse2_8bit
-.globl _sk_store_a8_sse2_8bit
-FUNCTION(_sk_store_a8_sse2_8bit)
-_sk_store_a8_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,114,212,24 // psrld $0x18,%xmm4
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,114,213,24 // psrld $0x18,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,229 // packssdw %xmm5,%xmm4
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,22 // jne 29a08 <_sk_store_a8_sse2_8bit+0x58>
- .byte 102,15,219,37,198,158,0,0 // pand 0x9ec6(%rip),%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,67,15,214,36,24 // movq %xmm4,(%r8,%r11,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 29a04 <_sk_store_a8_sse2_8bit+0x54>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,105,0,0,0 // lea 0x69(%rip),%r10 # 29a8c <_sk_store_a8_sse2_8bit+0xdc>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 67,136,4,24 // mov %al,(%r8,%r11,1)
- .byte 235,206 // jmp 29a04 <_sk_store_a8_sse2_8bit+0x54>
- .byte 102,15,197,196,2 // pextrw $0x2,%xmm4,%eax
- .byte 67,136,68,24,2 // mov %al,0x2(%r8,%r11,1)
- .byte 102,15,219,37,120,158,0,0 // pand 0x9e78(%rip),%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 102,67,137,4,24 // mov %ax,(%r8,%r11,1)
- .byte 235,173 // jmp 29a04 <_sk_store_a8_sse2_8bit+0x54>
- .byte 102,15,197,196,6 // pextrw $0x6,%xmm4,%eax
- .byte 67,136,68,24,6 // mov %al,0x6(%r8,%r11,1)
- .byte 102,15,197,196,5 // pextrw $0x5,%xmm4,%eax
- .byte 67,136,68,24,5 // mov %al,0x5(%r8,%r11,1)
- .byte 102,15,197,196,4 // pextrw $0x4,%xmm4,%eax
- .byte 67,136,68,24,4 // mov %al,0x4(%r8,%r11,1)
- .byte 102,15,219,37,67,158,0,0 // pand 0x9e43(%rip),%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,67,15,126,36,24 // movd %xmm4,(%r8,%r11,1)
- .byte 233,120,255,255,255 // jmpq 29a04 <_sk_store_a8_sse2_8bit+0x54>
- .byte 160,255,255,255,180,255,255,255,170 // movabs 0xaaffffffb4ffffff,%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 233,255,255,255,223 // jmpq ffffffffe0029a9c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdfff7020>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,203 // dec %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_sse2_8bit
-.globl _sk_load_g8_sse2_8bit
-FUNCTION(_sk_load_g8_sse2_8bit)
-_sk_load_g8_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne 29b34 <_sk_load_g8_sse2_8bit+0x8c>
- .byte 243,67,15,126,4,24 // movq (%r8,%r11,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 102,15,219,5,238,157,0,0 // pand 0x9dee(%rip),%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,97,225 // punpcklwd %xmm1,%xmm4
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,111,45,230,165,0,0 // movdqa 0xa5e6(%rip),%xmm5 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1654>
- .byte 102,15,112,240,245 // pshufd $0xf5,%xmm0,%xmm6
- .byte 102,15,244,197 // pmuludq %xmm5,%xmm0
- .byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
- .byte 102,15,244,245 // pmuludq %xmm5,%xmm6
- .byte 102,15,112,198,232 // pshufd $0xe8,%xmm6,%xmm0
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,15,112,244,245 // pshufd $0xf5,%xmm4,%xmm6
- .byte 102,15,244,229 // pmuludq %xmm5,%xmm4
- .byte 102,15,112,196,232 // pshufd $0xe8,%xmm4,%xmm0
- .byte 102,15,244,245 // pmuludq %xmm5,%xmm6
- .byte 102,15,112,230,232 // pshufd $0xe8,%xmm6,%xmm4
- .byte 102,15,98,196 // punpckldq %xmm4,%xmm0
- .byte 102,15,111,37,248,164,0,0 // movdqa 0xa4f8(%rip),%xmm4 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 102,15,235,196 // por %xmm4,%xmm0
- .byte 102,15,235,204 // por %xmm4,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 29aca <_sk_load_g8_sse2_8bit+0x22>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,117,0,0,0 // lea 0x75(%rip),%r10 # 29bc8 <_sk_load_g8_sse2_8bit+0x120>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 233,96,255,255,255 // jmpq 29aca <_sk_load_g8_sse2_8bit+0x22>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 233,59,255,255,255 // jmpq 29aca <_sk_load_g8_sse2_8bit+0x22>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,192,5 // pinsrw $0x5,%eax,%xmm0
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,192,4 // pinsrw $0x4,%eax,%xmm0
- .byte 102,67,15,110,12,24 // movd (%r8,%r11,1),%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 233,3,255,255,255 // jmpq 29aca <_sk_load_g8_sse2_8bit+0x22>
- .byte 144 // nop
- .byte 148 // xchg %eax,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,177,255,255,255,162 // pushq -0x5d000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 236 // in (%dx),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_sse2_8bit
-.globl _sk_load_g8_dst_sse2_8bit
-FUNCTION(_sk_load_g8_dst_sse2_8bit)
-_sk_load_g8_dst_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne 29c70 <_sk_load_g8_dst_sse2_8bit+0x8c>
- .byte 243,67,15,126,20,24 // movq (%r8,%r11,1),%xmm2
- .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2
- .byte 102,15,219,21,178,156,0,0 // pand 0x9cb2(%rip),%xmm2 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,97,227 // punpcklwd %xmm3,%xmm4
- .byte 102,15,105,211 // punpckhwd %xmm3,%xmm2
- .byte 102,15,111,45,170,164,0,0 // movdqa 0xa4aa(%rip),%xmm5 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1654>
- .byte 102,15,112,242,245 // pshufd $0xf5,%xmm2,%xmm6
- .byte 102,15,244,213 // pmuludq %xmm5,%xmm2
- .byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
- .byte 102,15,244,245 // pmuludq %xmm5,%xmm6
- .byte 102,15,112,214,232 // pshufd $0xe8,%xmm6,%xmm2
- .byte 102,15,98,218 // punpckldq %xmm2,%xmm3
- .byte 102,15,112,244,245 // pshufd $0xf5,%xmm4,%xmm6
- .byte 102,15,244,229 // pmuludq %xmm5,%xmm4
- .byte 102,15,112,212,232 // pshufd $0xe8,%xmm4,%xmm2
- .byte 102,15,244,245 // pmuludq %xmm5,%xmm6
- .byte 102,15,112,230,232 // pshufd $0xe8,%xmm6,%xmm4
- .byte 102,15,98,212 // punpckldq %xmm4,%xmm2
- .byte 102,15,111,37,188,163,0,0 // movdqa 0xa3bc(%rip),%xmm4 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 102,15,235,212 // por %xmm4,%xmm2
- .byte 102,15,235,220 // por %xmm4,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 29c06 <_sk_load_g8_dst_sse2_8bit+0x22>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,117,0,0,0 // lea 0x75(%rip),%r10 # 29d04 <_sk_load_g8_dst_sse2_8bit+0x120>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,96,255,255,255 // jmpq 29c06 <_sk_load_g8_dst_sse2_8bit+0x22>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,196,208,2 // pinsrw $0x2,%eax,%xmm2
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 243,15,16,211 // movss %xmm3,%xmm2
- .byte 233,59,255,255,255 // jmpq 29c06 <_sk_load_g8_dst_sse2_8bit+0x22>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,196,208,6 // pinsrw $0x6,%eax,%xmm2
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,208,5 // pinsrw $0x5,%eax,%xmm2
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,208,4 // pinsrw $0x4,%eax,%xmm2
- .byte 102,67,15,110,28,24 // movd (%r8,%r11,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 242,15,16,211 // movsd %xmm3,%xmm2
- .byte 233,3,255,255,255 // jmpq 29c06 <_sk_load_g8_dst_sse2_8bit+0x22>
- .byte 144 // nop
- .byte 148 // xchg %eax,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,177,255,255,255,162 // pushq -0x5d000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 236 // in (%dx),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_rgba_8888_sse2_8bit
-.globl _sk_srcover_rgba_8888_sse2_8bit
-FUNCTION(_sk_srcover_rgba_8888_sse2_8bit)
-_sk_srcover_rgba_8888_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne 29e3d <_sk_srcover_rgba_8888_sse2_8bit+0x11d>
- .byte 102,71,15,16,12,152 // movupd (%r8,%r11,4),%xmm9
- .byte 71,15,16,68,152,16 // movups 0x10(%r8,%r11,4),%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,236,95 // pshufhw $0x5f,%xmm4,%xmm5
- .byte 242,15,112,224,231 // pshuflw $0xe7,%xmm0,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm4
- .byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 102,69,15,40,217 // movapd %xmm9,%xmm11
- .byte 102,69,15,96,218 // punpcklbw %xmm10,%xmm11
- .byte 102,69,15,40,225 // movapd %xmm9,%xmm12
- .byte 102,69,15,104,226 // punpckhbw %xmm10,%xmm12
- .byte 102,69,15,111,232 // movdqa %xmm8,%xmm13
- .byte 102,69,15,96,234 // punpcklbw %xmm10,%xmm13
- .byte 102,69,15,111,240 // movdqa %xmm8,%xmm14
- .byte 102,69,15,104,242 // punpckhbw %xmm10,%xmm14
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,65,15,96,250 // punpcklbw %xmm10,%xmm7
- .byte 102,65,15,104,226 // punpckhbw %xmm10,%xmm4
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,65,15,96,242 // punpcklbw %xmm10,%xmm6
- .byte 102,65,15,104,234 // punpckhbw %xmm10,%xmm5
- .byte 102,65,15,213,238 // pmullw %xmm14,%xmm5
- .byte 102,65,15,213,245 // pmullw %xmm13,%xmm6
- .byte 102,65,15,213,228 // pmullw %xmm12,%xmm4
- .byte 102,65,15,213,251 // pmullw %xmm11,%xmm7
- .byte 102,65,15,253,251 // paddw %xmm11,%xmm7
- .byte 102,65,15,253,228 // paddw %xmm12,%xmm4
- .byte 102,65,15,253,245 // paddw %xmm13,%xmm6
- .byte 102,65,15,253,238 // paddw %xmm14,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,245 // packuswb %xmm5,%xmm6
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,68,15,248,198 // psubb %xmm6,%xmm8
- .byte 102,68,15,248,207 // psubb %xmm7,%xmm9
- .byte 102,68,15,252,200 // paddb %xmm0,%xmm9
- .byte 102,68,15,252,193 // paddb %xmm1,%xmm8
- .byte 117,78 // jne 29e7a <_sk_srcover_rgba_8888_sse2_8bit+0x15a>
- .byte 243,71,15,127,12,152 // movdqu %xmm9,(%r8,%r11,4)
- .byte 243,71,15,127,68,152,16 // movdqu %xmm8,0x10(%r8,%r11,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,241,254,255,255 // ja 29d4c <_sk_srcover_rgba_8888_sse2_8bit+0x2c>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,214,0,0,0 // lea 0xd6(%rip),%r10 # 29f3c <_sk_srcover_rgba_8888_sse2_8bit+0x21c>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 243,71,15,16,12,152 // movss (%r8,%r11,4),%xmm9
- .byte 233,210,254,255,255 // jmpq 29d4c <_sk_srcover_rgba_8888_sse2_8bit+0x2c>
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,175 // ja 29e39 <_sk_srcover_rgba_8888_sse2_8bit+0x119>
- .byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 29f58 <_sk_srcover_rgba_8888_sse2_8bit+0x238>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,71,15,126,12,152 // movd %xmm9,(%r8,%r11,4)
- .byte 235,147 // jmp 29e39 <_sk_srcover_rgba_8888_sse2_8bit+0x119>
- .byte 102,67,15,110,100,152,8 // movd 0x8(%r8,%r11,4),%xmm4
- .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
- .byte 102,71,15,18,12,152 // movlpd (%r8,%r11,4),%xmm9
- .byte 233,142,254,255,255 // jmpq 29d4c <_sk_srcover_rgba_8888_sse2_8bit+0x2c>
- .byte 102,67,15,110,100,152,24 // movd 0x18(%r8,%r11,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 243,67,15,16,100,152,20 // movss 0x14(%r8,%r11,4),%xmm4
- .byte 65,15,198,224,0 // shufps $0x0,%xmm8,%xmm4
- .byte 65,15,198,224,226 // shufps $0xe2,%xmm8,%xmm4
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 243,67,15,16,100,152,16 // movss 0x10(%r8,%r11,4),%xmm4
- .byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 102,71,15,16,12,152 // movupd (%r8,%r11,4),%xmm9
- .byte 233,85,254,255,255 // jmpq 29d4c <_sk_srcover_rgba_8888_sse2_8bit+0x2c>
- .byte 102,65,15,112,225,78 // pshufd $0x4e,%xmm9,%xmm4
- .byte 102,67,15,126,100,152,8 // movd %xmm4,0x8(%r8,%r11,4)
- .byte 102,71,15,214,12,152 // movq %xmm9,(%r8,%r11,4)
- .byte 233,42,255,255,255 // jmpq 29e39 <_sk_srcover_rgba_8888_sse2_8bit+0x119>
- .byte 102,65,15,112,224,78 // pshufd $0x4e,%xmm8,%xmm4
- .byte 102,67,15,126,100,152,24 // movd %xmm4,0x18(%r8,%r11,4)
- .byte 102,65,15,112,224,229 // pshufd $0xe5,%xmm8,%xmm4
- .byte 102,67,15,126,100,152,20 // movd %xmm4,0x14(%r8,%r11,4)
- .byte 102,71,15,126,68,152,16 // movd %xmm8,0x10(%r8,%r11,4)
- .byte 243,71,15,127,12,152 // movdqu %xmm9,(%r8,%r11,4)
- .byte 233,254,254,255,255 // jmpq 29e39 <_sk_srcover_rgba_8888_sse2_8bit+0x119>
- .byte 144 // nop
- .byte 51,255 // xor %edi,%edi
- .byte 255 // (bad)
- .byte 255,119,255 // pushq -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,106,255 // ljmp *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,176,255,255,255,164 // pushq -0x5b000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,143,255,255,255,130 // decl -0x7d000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,70,255 // incl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,172,255,255,255,159,255 // ljmp *-0x600001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 183,255 // mov $0xff,%bh
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_1_float_sse2_8bit
-.globl _sk_scale_1_float_sse2_8bit
-FUNCTION(_sk_scale_1_float_sse2_8bit)
-_sk_scale_1_float_sse2_8bit:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,89,5,168,151,0,0 // mulss 0x97a8(%rip),%xmm0 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 243,15,44,192 // cvttss2si %xmm0,%eax
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,96,198 // punpcklbw %xmm6,%xmm0
- .byte 102,68,15,104,206 // punpckhbw %xmm6,%xmm9
- .byte 102,15,96,206 // punpcklbw %xmm6,%xmm1
- .byte 102,68,15,104,198 // punpckhbw %xmm6,%xmm8
- .byte 102,15,110,240 // movd %eax,%xmm6
- .byte 102,15,96,246 // punpcklbw %xmm6,%xmm6
- .byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
- .byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,219,53,251,152,0,0 // pand 0x98fb(%rip),%xmm6 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,65,15,213,248 // pmullw %xmm8,%xmm7
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,15,213,225 // pmullw %xmm1,%xmm4
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,65,15,213,233 // pmullw %xmm9,%xmm5
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,15,253,198 // paddw %xmm6,%xmm0
- .byte 102,65,15,253,233 // paddw %xmm9,%xmm5
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,65,15,253,248 // paddw %xmm8,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,207 // packuswb %xmm7,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,197 // packuswb %xmm5,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_sse2_8bit
-.globl _sk_scale_u8_sse2_8bit
-FUNCTION(_sk_scale_u8_sse2_8bit)
-_sk_scale_u8_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,239,0,0,0 // jne 2a120 <_sk_scale_u8_sse2_8bit+0x10b>
- .byte 243,67,15,126,36,24 // movq (%r8,%r11,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,219,37,125,152,0,0 // pand 0x987d(%rip),%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,65,15,105,232 // punpckhwd %xmm8,%xmm5
- .byte 102,65,15,97,224 // punpcklwd %xmm8,%xmm4
- .byte 102,15,114,244,24 // pslld $0x18,%xmm4
- .byte 102,15,114,245,24 // pslld $0x18,%xmm5
- .byte 242,15,112,237,231 // pshuflw $0xe7,%xmm5,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,245,95 // pshufhw $0x5f,%xmm5,%xmm6
- .byte 242,15,112,228,231 // pshuflw $0xe7,%xmm4,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,252,95 // pshufhw $0x5f,%xmm4,%xmm7
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,69,15,96,200 // punpcklbw %xmm8,%xmm9
- .byte 102,65,15,104,192 // punpckhbw %xmm8,%xmm0
- .byte 102,68,15,111,209 // movdqa %xmm1,%xmm10
- .byte 102,69,15,96,208 // punpcklbw %xmm8,%xmm10
- .byte 102,65,15,104,200 // punpckhbw %xmm8,%xmm1
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,65,15,96,224 // punpcklbw %xmm8,%xmm4
- .byte 102,65,15,104,248 // punpckhbw %xmm8,%xmm7
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,65,15,96,232 // punpcklbw %xmm8,%xmm5
- .byte 102,65,15,104,240 // punpckhbw %xmm8,%xmm6
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,65,15,213,234 // pmullw %xmm10,%xmm5
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,65,15,213,225 // pmullw %xmm9,%xmm4
- .byte 102,65,15,253,225 // paddw %xmm9,%xmm4
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 102,65,15,253,234 // paddw %xmm10,%xmm5
- .byte 102,15,253,241 // paddw %xmm1,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,231 // packuswb %xmm7,%xmm4
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,3,255,255,255 // ja 2a03b <_sk_scale_u8_sse2_8bit+0x26>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,117,0,0,0 // lea 0x75(%rip),%r10 # 2a1b8 <_sk_scale_u8_sse2_8bit+0x1a3>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 233,225,254,255,255 // jmpq 2a03b <_sk_scale_u8_sse2_8bit+0x26>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 233,188,254,255,255 // jmpq 2a03b <_sk_scale_u8_sse2_8bit+0x26>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,224,5 // pinsrw $0x5,%eax,%xmm4
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,224,4 // pinsrw $0x4,%eax,%xmm4
- .byte 102,67,15,110,44,24 // movd (%r8,%r11,1),%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,132,254,255,255 // jmpq 2a03b <_sk_scale_u8_sse2_8bit+0x26>
- .byte 144 // nop
- .byte 148 // xchg %eax,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,177,255,255,255,162 // pushq -0x5d000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 236 // in (%dx),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_1_float_sse2_8bit
-.globl _sk_lerp_1_float_sse2_8bit
-FUNCTION(_sk_lerp_1_float_sse2_8bit)
-_sk_lerp_1_float_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,32 // movss (%rax),%xmm4
- .byte 243,15,89,37,82,149,0,0 // mulss 0x9552(%rip),%xmm4 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 243,15,44,196 // cvttss2si %xmm4,%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,0 // pshuflw $0x0,%xmm4,%xmm4
- .byte 102,68,15,112,196,80 // pshufd $0x50,%xmm4,%xmm8
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,65,15,96,249 // punpcklbw %xmm9,%xmm7
- .byte 102,65,15,104,193 // punpckhbw %xmm9,%xmm0
- .byte 102,68,15,111,209 // movdqa %xmm1,%xmm10
- .byte 102,69,15,96,209 // punpcklbw %xmm9,%xmm10
- .byte 102,65,15,104,201 // punpckhbw %xmm9,%xmm1
- .byte 102,15,111,45,157,150,0,0 // movdqa 0x969d(%rip),%xmm5 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,213,225 // pmullw %xmm1,%xmm4
- .byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
- .byte 102,69,15,213,218 // pmullw %xmm10,%xmm11
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,15,213,239 // pmullw %xmm7,%xmm5
- .byte 102,15,253,239 // paddw %xmm7,%xmm5
- .byte 102,15,253,240 // paddw %xmm0,%xmm6
- .byte 102,69,15,253,218 // paddw %xmm10,%xmm11
- .byte 102,15,253,225 // paddw %xmm1,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,103,220 // packuswb %xmm4,%xmm11
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 102,15,118,255 // pcmpeqd %xmm7,%xmm7
- .byte 102,65,15,239,248 // pxor %xmm8,%xmm7
- .byte 102,68,15,111,210 // movdqa %xmm2,%xmm10
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,65,15,96,241 // punpcklbw %xmm9,%xmm6
- .byte 102,69,15,104,209 // punpckhbw %xmm9,%xmm10
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,69,15,96,225 // punpcklbw %xmm9,%xmm12
- .byte 102,69,15,104,193 // punpckhbw %xmm9,%xmm8
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
- .byte 102,65,15,104,249 // punpckhbw %xmm9,%xmm7
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,65,15,213,204 // pmullw %xmm12,%xmm1
- .byte 102,65,15,213,250 // pmullw %xmm10,%xmm7
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,253,198 // paddw %xmm6,%xmm0
- .byte 102,65,15,253,250 // paddw %xmm10,%xmm7
- .byte 102,65,15,253,204 // paddw %xmm12,%xmm1
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,204 // packuswb %xmm4,%xmm1
- .byte 102,65,15,252,203 // paddb %xmm11,%xmm1
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 102,15,252,197 // paddb %xmm5,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_u8_sse2_8bit
-.globl _sk_lerp_u8_sse2_8bit
-FUNCTION(_sk_lerp_u8_sse2_8bit)
-_sk_lerp_u8_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,99,193 // movslq %ecx,%r8
- .byte 77,15,175,193 // imul %r9,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 76,99,218 // movslq %edx,%r11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,141,1,0,0 // jne 2a4b3 <_sk_lerp_u8_sse2_8bit+0x1a9>
- .byte 243,67,15,126,36,24 // movq (%r8,%r11,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,219,37,136,149,0,0 // pand 0x9588(%rip),%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,65,15,105,232 // punpckhwd %xmm8,%xmm5
- .byte 102,65,15,97,224 // punpcklwd %xmm8,%xmm4
- .byte 102,15,114,244,24 // pslld $0x18,%xmm4
- .byte 102,15,114,245,24 // pslld $0x18,%xmm5
- .byte 242,15,112,237,231 // pshuflw $0xe7,%xmm5,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,253,95 // pshufhw $0x5f,%xmm5,%xmm7
- .byte 242,15,112,228,231 // pshuflw $0xe7,%xmm4,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,244,95 // pshufhw $0x5f,%xmm4,%xmm6
- .byte 102,68,15,111,208 // movdqa %xmm0,%xmm10
- .byte 102,69,15,96,208 // punpcklbw %xmm8,%xmm10
- .byte 102,65,15,104,192 // punpckhbw %xmm8,%xmm0
- .byte 102,68,15,111,217 // movdqa %xmm1,%xmm11
- .byte 102,69,15,96,216 // punpcklbw %xmm8,%xmm11
- .byte 102,65,15,104,200 // punpckhbw %xmm8,%xmm1
- .byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
- .byte 102,69,15,96,200 // punpcklbw %xmm8,%xmm9
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,65,15,104,224 // punpckhbw %xmm8,%xmm4
- .byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
- .byte 102,69,15,96,224 // punpcklbw %xmm8,%xmm12
- .byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,65,15,104,232 // punpckhbw %xmm8,%xmm5
- .byte 102,15,213,233 // pmullw %xmm1,%xmm5
- .byte 102,69,15,213,227 // pmullw %xmm11,%xmm12
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,69,15,213,202 // pmullw %xmm10,%xmm9
- .byte 102,69,15,253,202 // paddw %xmm10,%xmm9
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,69,15,253,227 // paddw %xmm11,%xmm12
- .byte 102,15,253,233 // paddw %xmm1,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,68,15,103,229 // packuswb %xmm5,%xmm12
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,68,15,103,204 // packuswb %xmm4,%xmm9
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,239,248 // pxor %xmm0,%xmm7
- .byte 102,15,239,240 // pxor %xmm0,%xmm6
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,65,15,96,224 // punpcklbw %xmm8,%xmm4
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,65,15,104,232 // punpckhbw %xmm8,%xmm5
- .byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
- .byte 102,69,15,96,208 // punpcklbw %xmm8,%xmm10
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,69,15,104,216 // punpckhbw %xmm8,%xmm11
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
- .byte 102,65,15,104,240 // punpckhbw %xmm8,%xmm6
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
- .byte 102,65,15,96,200 // punpcklbw %xmm8,%xmm1
- .byte 102,65,15,104,248 // punpckhbw %xmm8,%xmm7
- .byte 102,65,15,213,251 // pmullw %xmm11,%xmm7
- .byte 102,65,15,213,202 // pmullw %xmm10,%xmm1
- .byte 102,15,213,245 // pmullw %xmm5,%xmm6
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,15,253,245 // paddw %xmm5,%xmm6
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,65,15,253,251 // paddw %xmm11,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,207 // packuswb %xmm7,%xmm1
- .byte 102,65,15,252,204 // paddb %xmm12,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,198 // packuswb %xmm6,%xmm0
- .byte 102,65,15,252,193 // paddb %xmm9,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,101,254,255,255 // ja 2a330 <_sk_lerp_u8_sse2_8bit+0x26>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,118,0,0,0 // lea 0x76(%rip),%r10 # 2a54c <_sk_lerp_u8_sse2_8bit+0x242>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 233,67,254,255,255 // jmpq 2a330 <_sk_lerp_u8_sse2_8bit+0x26>
- .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
- .byte 67,15,183,4,24 // movzwl (%r8,%r11,1),%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 233,30,254,255,255 // jmpq 2a330 <_sk_lerp_u8_sse2_8bit+0x26>
- .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
- .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
- .byte 102,15,196,224,5 // pinsrw $0x5,%eax,%xmm4
- .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
- .byte 102,15,196,224,4 // pinsrw $0x4,%eax,%xmm4
- .byte 102,67,15,110,44,24 // movd (%r8,%r11,1),%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,230,253,255,255 // jmpq 2a330 <_sk_lerp_u8_sse2_8bit+0x26>
- .byte 102,144 // xchg %ax,%ax
- .byte 147 // xchg %eax,%ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,176,255,255,255,161 // pushq -0x5e000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 235,255 // jmp 2a559 <_sk_lerp_u8_sse2_8bit+0x24f>
- .byte 255 // (bad)
- .byte 255,224 // jmpq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_move_src_dst_sse2_8bit
-.globl _sk_move_src_dst_sse2_8bit
-FUNCTION(_sk_move_src_dst_sse2_8bit)
-_sk_move_src_dst_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_sse2_8bit
-.globl _sk_move_dst_src_sse2_8bit
-FUNCTION(_sk_move_dst_src_sse2_8bit)
-_sk_move_dst_src_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_sse2_8bit
-.globl _sk_black_color_sse2_8bit
-FUNCTION(_sk_black_color_sse2_8bit)
-_sk_black_color_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,155,154,0,0 // movaps 0x9a9b(%rip),%xmm0 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0x15a4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_sse2_8bit
-.globl _sk_white_color_sse2_8bit
-FUNCTION(_sk_white_color_sse2_8bit)
-_sk_white_color_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_sse2_8bit
-.globl _sk_clear_sse2_8bit
-FUNCTION(_sk_clear_sse2_8bit)
-_sk_clear_sse2_8bit:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_sse2_8bit
-.globl _sk_srcatop_sse2_8bit
-FUNCTION(_sk_srcatop_sse2_8bit)
-_sk_srcatop_sse2_8bit:
- .byte 242,15,112,227,231 // pshuflw $0xe7,%xmm3,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,220,95 // pshufhw $0x5f,%xmm4,%xmm11
- .byte 242,15,112,234,231 // pshuflw $0xe7,%xmm2,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,245,95 // pshufhw $0x5f,%xmm5,%xmm6
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 242,68,15,112,208,231 // pshuflw $0xe7,%xmm0,%xmm10
- .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
- .byte 102,69,15,104,193 // punpckhbw %xmm9,%xmm8
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 242,68,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm12
- .byte 102,65,15,96,201 // punpcklbw %xmm9,%xmm1
- .byte 102,65,15,104,225 // punpckhbw %xmm9,%xmm4
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,65,15,96,249 // punpcklbw %xmm9,%xmm7
- .byte 102,65,15,104,241 // punpckhbw %xmm9,%xmm6
- .byte 102,65,15,111,235 // movdqa %xmm11,%xmm5
- .byte 102,65,15,96,233 // punpcklbw %xmm9,%xmm5
- .byte 102,69,15,104,217 // punpckhbw %xmm9,%xmm11
- .byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
- .byte 102,15,213,233 // pmullw %xmm1,%xmm5
- .byte 102,65,15,213,240 // pmullw %xmm8,%xmm6
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 102,65,15,253,240 // paddw %xmm8,%xmm6
- .byte 102,15,253,233 // paddw %xmm1,%xmm5
- .byte 102,68,15,253,220 // paddw %xmm4,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,65,15,103,235 // packuswb %xmm11,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,254 // packuswb %xmm6,%xmm7
- .byte 243,65,15,112,194,231 // pshufhw $0xe7,%xmm10,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,224,95 // pshufhw $0x5f,%xmm0,%xmm4
- .byte 243,65,15,112,196,231 // pshufhw $0xe7,%xmm12,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,240,95 // pshufhw $0x5f,%xmm0,%xmm6
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,239,240 // pxor %xmm0,%xmm6
- .byte 102,15,239,224 // pxor %xmm0,%xmm4
- .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
- .byte 102,68,15,111,210 // movdqa %xmm2,%xmm10
- .byte 102,69,15,96,209 // punpcklbw %xmm9,%xmm10
- .byte 102,69,15,104,193 // punpckhbw %xmm9,%xmm8
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,69,15,96,225 // punpcklbw %xmm9,%xmm12
- .byte 102,69,15,104,217 // punpckhbw %xmm9,%xmm11
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
- .byte 102,65,15,104,225 // punpckhbw %xmm9,%xmm4
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,65,15,96,201 // punpcklbw %xmm9,%xmm1
- .byte 102,65,15,104,241 // punpckhbw %xmm9,%xmm6
- .byte 102,65,15,213,243 // pmullw %xmm11,%xmm6
- .byte 102,65,15,213,204 // pmullw %xmm12,%xmm1
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,65,15,253,204 // paddw %xmm12,%xmm1
- .byte 102,65,15,253,243 // paddw %xmm11,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,206 // packuswb %xmm6,%xmm1
- .byte 102,15,252,205 // paddb %xmm5,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,196 // packuswb %xmm4,%xmm0
- .byte 102,15,252,199 // paddb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_sse2_8bit
-.globl _sk_dstatop_sse2_8bit
-FUNCTION(_sk_dstatop_sse2_8bit)
-_sk_dstatop_sse2_8bit:
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,236,95 // pshufhw $0x5f,%xmm4,%xmm13
- .byte 242,15,112,224,231 // pshuflw $0xe7,%xmm0,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,236,95 // pshufhw $0x5f,%xmm4,%xmm5
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
- .byte 242,68,15,112,218,231 // pshuflw $0xe7,%xmm2,%xmm11
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,65,15,96,225 // punpcklbw %xmm9,%xmm4
- .byte 102,69,15,104,193 // punpckhbw %xmm9,%xmm8
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
- .byte 102,69,15,96,209 // punpcklbw %xmm9,%xmm10
- .byte 102,68,15,213,212 // pmullw %xmm4,%xmm10
- .byte 102,68,15,253,212 // paddw %xmm4,%xmm10
- .byte 242,68,15,112,227,231 // pshuflw $0xe7,%xmm3,%xmm12
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,65,15,96,241 // punpcklbw %xmm9,%xmm6
- .byte 102,65,15,104,249 // punpckhbw %xmm9,%xmm7
- .byte 102,65,15,104,233 // punpckhbw %xmm9,%xmm5
- .byte 102,65,15,213,232 // pmullw %xmm8,%xmm5
- .byte 102,65,15,253,232 // paddw %xmm8,%xmm5
- .byte 102,65,15,111,229 // movdqa %xmm13,%xmm4
- .byte 102,65,15,96,225 // punpcklbw %xmm9,%xmm4
- .byte 102,69,15,104,233 // punpckhbw %xmm9,%xmm13
- .byte 102,68,15,213,239 // pmullw %xmm7,%xmm13
- .byte 102,15,213,230 // pmullw %xmm6,%xmm4
- .byte 102,15,253,230 // paddw %xmm6,%xmm4
- .byte 102,68,15,253,239 // paddw %xmm7,%xmm13
- .byte 102,65,15,113,213,8 // psrlw $0x8,%xmm13
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,65,15,103,229 // packuswb %xmm13,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,68,15,103,213 // packuswb %xmm5,%xmm10
- .byte 243,65,15,112,235,231 // pshufhw $0xe7,%xmm11,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,253,95 // pshufhw $0x5f,%xmm5,%xmm7
- .byte 243,65,15,112,236,231 // pshufhw $0xe7,%xmm12,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,245,95 // pshufhw $0x5f,%xmm5,%xmm6
- .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
- .byte 102,15,239,245 // pxor %xmm5,%xmm6
- .byte 102,15,239,253 // pxor %xmm5,%xmm7
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,69,15,96,193 // punpcklbw %xmm9,%xmm8
- .byte 102,65,15,104,193 // punpckhbw %xmm9,%xmm0
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,65,15,96,233 // punpcklbw %xmm9,%xmm5
- .byte 102,65,15,104,201 // punpckhbw %xmm9,%xmm1
- .byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
- .byte 102,69,15,96,217 // punpcklbw %xmm9,%xmm11
- .byte 102,65,15,104,249 // punpckhbw %xmm9,%xmm7
- .byte 102,68,15,111,230 // movdqa %xmm6,%xmm12
- .byte 102,69,15,96,225 // punpcklbw %xmm9,%xmm12
- .byte 102,65,15,104,241 // punpckhbw %xmm9,%xmm6
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,68,15,213,229 // pmullw %xmm5,%xmm12
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,69,15,213,216 // pmullw %xmm8,%xmm11
- .byte 102,69,15,253,195 // paddw %xmm11,%xmm8
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 102,65,15,253,236 // paddw %xmm12,%xmm5
- .byte 102,15,253,241 // paddw %xmm1,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 102,15,252,236 // paddb %xmm4,%xmm5
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,68,15,103,199 // packuswb %xmm7,%xmm8
- .byte 102,69,15,252,194 // paddb %xmm10,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_sse2_8bit
-.globl _sk_srcin_sse2_8bit
-FUNCTION(_sk_srcin_sse2_8bit)
-_sk_srcin_sse2_8bit:
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 242,15,112,195,231 // pshuflw $0xe7,%xmm3,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,240,95 // pshufhw $0x5f,%xmm0,%xmm6
- .byte 242,15,112,194,231 // pshuflw $0xe7,%xmm2,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,248,95 // pshufhw $0x5f,%xmm0,%xmm7
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
- .byte 102,69,15,104,193 // punpckhbw %xmm9,%xmm8
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,65,15,96,225 // punpcklbw %xmm9,%xmm4
- .byte 102,65,15,104,201 // punpckhbw %xmm9,%xmm1
- .byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,65,15,96,233 // punpcklbw %xmm9,%xmm5
- .byte 102,65,15,104,249 // punpckhbw %xmm9,%xmm7
- .byte 102,68,15,111,214 // movdqa %xmm6,%xmm10
- .byte 102,69,15,96,209 // punpcklbw %xmm9,%xmm10
- .byte 102,65,15,104,241 // punpckhbw %xmm9,%xmm6
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,68,15,213,212 // pmullw %xmm4,%xmm10
- .byte 102,65,15,213,248 // pmullw %xmm8,%xmm7
- .byte 102,15,213,232 // pmullw %xmm0,%xmm5
- .byte 102,15,253,197 // paddw %xmm5,%xmm0
- .byte 102,65,15,253,248 // paddw %xmm8,%xmm7
- .byte 102,65,15,253,226 // paddw %xmm10,%xmm4
- .byte 102,15,253,241 // paddw %xmm1,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,230 // packuswb %xmm6,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_sse2_8bit
-.globl _sk_dstin_sse2_8bit
-FUNCTION(_sk_dstin_sse2_8bit)
-_sk_dstin_sse2_8bit:
- .byte 242,15,112,201,231 // pshuflw $0xe7,%xmm1,%xmm1
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,225,95 // pshufhw $0x5f,%xmm1,%xmm4
- .byte 242,15,112,192,231 // pshuflw $0xe7,%xmm0,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,232,95 // pshufhw $0x5f,%xmm0,%xmm5
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,96,254 // punpcklbw %xmm6,%xmm7
- .byte 102,68,15,104,198 // punpckhbw %xmm6,%xmm8
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
- .byte 102,68,15,96,214 // punpcklbw %xmm6,%xmm10
- .byte 102,68,15,104,206 // punpckhbw %xmm6,%xmm9
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,96,198 // punpcklbw %xmm6,%xmm0
- .byte 102,15,104,238 // punpckhbw %xmm6,%xmm5
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,96,206 // punpcklbw %xmm6,%xmm1
- .byte 102,15,104,230 // punpckhbw %xmm6,%xmm4
- .byte 102,65,15,213,225 // pmullw %xmm9,%xmm4
- .byte 102,65,15,213,202 // pmullw %xmm10,%xmm1
- .byte 102,65,15,213,232 // pmullw %xmm8,%xmm5
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,65,15,253,232 // paddw %xmm8,%xmm5
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,65,15,253,225 // paddw %xmm9,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,204 // packuswb %xmm4,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,197 // packuswb %xmm5,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_sse2_8bit
-.globl _sk_srcout_sse2_8bit
-FUNCTION(_sk_srcout_sse2_8bit)
-_sk_srcout_sse2_8bit:
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 242,15,112,194,231 // pshuflw $0xe7,%xmm2,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,240,95 // pshufhw $0x5f,%xmm0,%xmm6
- .byte 242,15,112,195,231 // pshuflw $0xe7,%xmm3,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,248,95 // pshufhw $0x5f,%xmm0,%xmm7
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,239,248 // pxor %xmm0,%xmm7
- .byte 102,15,239,240 // pxor %xmm0,%xmm6
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
- .byte 102,69,15,104,193 // punpckhbw %xmm9,%xmm8
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,65,15,96,233 // punpcklbw %xmm9,%xmm5
- .byte 102,65,15,104,201 // punpckhbw %xmm9,%xmm1
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,65,15,96,225 // punpcklbw %xmm9,%xmm4
- .byte 102,65,15,104,241 // punpckhbw %xmm9,%xmm6
- .byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
- .byte 102,69,15,96,209 // punpcklbw %xmm9,%xmm10
- .byte 102,65,15,104,249 // punpckhbw %xmm9,%xmm7
- .byte 102,15,213,249 // pmullw %xmm1,%xmm7
- .byte 102,68,15,213,213 // pmullw %xmm5,%xmm10
- .byte 102,65,15,213,240 // pmullw %xmm8,%xmm6
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,65,15,253,240 // paddw %xmm8,%xmm6
- .byte 102,65,15,253,234 // paddw %xmm10,%xmm5
- .byte 102,15,253,249 // paddw %xmm1,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,239 // packuswb %xmm7,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,198 // packuswb %xmm6,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_sse2_8bit
-.globl _sk_dstout_sse2_8bit
-FUNCTION(_sk_dstout_sse2_8bit)
-_sk_dstout_sse2_8bit:
- .byte 242,15,112,192,231 // pshuflw $0xe7,%xmm0,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,224,95 // pshufhw $0x5f,%xmm0,%xmm4
- .byte 242,15,112,193,231 // pshuflw $0xe7,%xmm1,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,232,95 // pshufhw $0x5f,%xmm0,%xmm5
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,239,232 // pxor %xmm0,%xmm5
- .byte 102,15,239,224 // pxor %xmm0,%xmm4
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,96,254 // punpcklbw %xmm6,%xmm7
- .byte 102,68,15,104,198 // punpckhbw %xmm6,%xmm8
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
- .byte 102,68,15,96,214 // punpcklbw %xmm6,%xmm10
- .byte 102,68,15,104,206 // punpckhbw %xmm6,%xmm9
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,96,198 // punpcklbw %xmm6,%xmm0
- .byte 102,15,104,230 // punpckhbw %xmm6,%xmm4
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,96,206 // punpcklbw %xmm6,%xmm1
- .byte 102,15,104,238 // punpckhbw %xmm6,%xmm5
- .byte 102,65,15,213,233 // pmullw %xmm9,%xmm5
- .byte 102,65,15,213,202 // pmullw %xmm10,%xmm1
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,65,15,253,233 // paddw %xmm9,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,196 // packuswb %xmm4,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_sse2_8bit
-.globl _sk_srcover_sse2_8bit
-FUNCTION(_sk_srcover_sse2_8bit)
-_sk_srcover_sse2_8bit:
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,212,95 // pshufhw $0x5f,%xmm4,%xmm10
- .byte 242,15,112,232,231 // pshuflw $0xe7,%xmm0,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,68,15,112,221,95 // pshufhw $0x5f,%xmm5,%xmm11
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
- .byte 102,69,15,96,224 // punpcklbw %xmm8,%xmm12
- .byte 102,69,15,104,200 // punpckhbw %xmm8,%xmm9
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,252,203 // paddb %xmm3,%xmm1
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,65,15,96,224 // punpcklbw %xmm8,%xmm4
- .byte 102,65,15,104,248 // punpckhbw %xmm8,%xmm7
- .byte 102,65,15,111,235 // movdqa %xmm11,%xmm5
- .byte 102,65,15,96,232 // punpcklbw %xmm8,%xmm5
- .byte 102,69,15,104,216 // punpckhbw %xmm8,%xmm11
- .byte 102,65,15,111,242 // movdqa %xmm10,%xmm6
- .byte 102,65,15,96,240 // punpcklbw %xmm8,%xmm6
- .byte 102,69,15,104,208 // punpckhbw %xmm8,%xmm10
- .byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
- .byte 102,15,213,244 // pmullw %xmm4,%xmm6
- .byte 102,69,15,213,217 // pmullw %xmm9,%xmm11
- .byte 102,65,15,213,236 // pmullw %xmm12,%xmm5
- .byte 102,65,15,253,236 // paddw %xmm12,%xmm5
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,15,253,244 // paddw %xmm4,%xmm6
- .byte 102,68,15,253,215 // paddw %xmm7,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,65,15,103,242 // packuswb %xmm10,%xmm6
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,65,15,103,235 // packuswb %xmm11,%xmm5
- .byte 102,15,248,206 // psubb %xmm6,%xmm1
- .byte 102,15,248,197 // psubb %xmm5,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_sse2_8bit
-.globl _sk_dstover_sse2_8bit
-FUNCTION(_sk_dstover_sse2_8bit)
-_sk_dstover_sse2_8bit:
- .byte 242,15,112,227,231 // pshuflw $0xe7,%xmm3,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm4
- .byte 242,15,112,234,231 // pshuflw $0xe7,%xmm2,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,237,95 // pshufhw $0x5f,%xmm5,%xmm5
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,69,15,96,200 // punpcklbw %xmm8,%xmm9
- .byte 102,68,15,111,208 // movdqa %xmm0,%xmm10
- .byte 102,69,15,104,208 // punpckhbw %xmm8,%xmm10
- .byte 102,68,15,111,217 // movdqa %xmm1,%xmm11
- .byte 102,69,15,96,216 // punpcklbw %xmm8,%xmm11
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 102,69,15,104,224 // punpckhbw %xmm8,%xmm12
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,65,15,96,240 // punpcklbw %xmm8,%xmm6
- .byte 102,65,15,104,232 // punpckhbw %xmm8,%xmm5
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,65,15,96,248 // punpcklbw %xmm8,%xmm7
- .byte 102,65,15,104,224 // punpckhbw %xmm8,%xmm4
- .byte 102,65,15,213,228 // pmullw %xmm12,%xmm4
- .byte 102,65,15,213,251 // pmullw %xmm11,%xmm7
- .byte 102,65,15,213,234 // pmullw %xmm10,%xmm5
- .byte 102,65,15,213,241 // pmullw %xmm9,%xmm6
- .byte 102,65,15,253,241 // paddw %xmm9,%xmm6
- .byte 102,65,15,253,234 // paddw %xmm10,%xmm5
- .byte 102,65,15,253,251 // paddw %xmm11,%xmm7
- .byte 102,65,15,253,228 // paddw %xmm12,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,245 // packuswb %xmm5,%xmm6
- .byte 102,15,252,203 // paddb %xmm3,%xmm1
- .byte 102,15,248,207 // psubb %xmm7,%xmm1
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,248,198 // psubb %xmm6,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_sse2_8bit
-.globl _sk_modulate_sse2_8bit
-FUNCTION(_sk_modulate_sse2_8bit)
-_sk_modulate_sse2_8bit:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 102,65,15,96,194 // punpcklbw %xmm10,%xmm0
- .byte 102,69,15,104,202 // punpckhbw %xmm10,%xmm9
- .byte 102,65,15,96,202 // punpcklbw %xmm10,%xmm1
- .byte 102,69,15,104,194 // punpckhbw %xmm10,%xmm8
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,65,15,96,226 // punpcklbw %xmm10,%xmm4
- .byte 102,65,15,104,242 // punpckhbw %xmm10,%xmm6
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,65,15,96,250 // punpcklbw %xmm10,%xmm7
- .byte 102,65,15,104,234 // punpckhbw %xmm10,%xmm5
- .byte 102,65,15,213,232 // pmullw %xmm8,%xmm5
- .byte 102,15,213,249 // pmullw %xmm1,%xmm7
- .byte 102,65,15,213,241 // pmullw %xmm9,%xmm6
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,65,15,253,241 // paddw %xmm9,%xmm6
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,65,15,253,232 // paddw %xmm8,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,198 // packuswb %xmm6,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_sse2_8bit
-.globl _sk_multiply_sse2_8bit
-FUNCTION(_sk_multiply_sse2_8bit)
-_sk_multiply_sse2_8bit:
- .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 242,15,112,227,231 // pshuflw $0xe7,%xmm3,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,252,95 // pshufhw $0x5f,%xmm4,%xmm7
- .byte 242,65,15,112,230,231 // pshuflw $0xe7,%xmm14,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,244,95 // pshufhw $0x5f,%xmm4,%xmm6
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,239,240 // pxor %xmm8,%xmm6
- .byte 102,65,15,239,248 // pxor %xmm8,%xmm7
- .byte 102,69,15,239,237 // pxor %xmm13,%xmm13
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 242,15,112,224,231 // pshuflw $0xe7,%xmm0,%xmm4
- .byte 102,68,15,111,216 // movdqa %xmm0,%xmm11
- .byte 102,69,15,96,221 // punpcklbw %xmm13,%xmm11
- .byte 102,69,15,104,205 // punpckhbw %xmm13,%xmm9
- .byte 102,68,15,111,209 // movdqa %xmm1,%xmm10
- .byte 242,15,112,193,231 // pshuflw $0xe7,%xmm1,%xmm0
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 102,69,15,96,229 // punpcklbw %xmm13,%xmm12
- .byte 102,69,15,104,213 // punpckhbw %xmm13,%xmm10
- .byte 102,68,15,111,255 // movdqa %xmm7,%xmm15
- .byte 102,69,15,96,253 // punpcklbw %xmm13,%xmm15
- .byte 102,65,15,104,253 // punpckhbw %xmm13,%xmm7
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,65,15,96,237 // punpcklbw %xmm13,%xmm5
- .byte 102,65,15,104,245 // punpckhbw %xmm13,%xmm6
- .byte 102,65,15,213,242 // pmullw %xmm10,%xmm6
- .byte 102,65,15,213,236 // pmullw %xmm12,%xmm5
- .byte 102,65,15,213,249 // pmullw %xmm9,%xmm7
- .byte 102,69,15,213,251 // pmullw %xmm11,%xmm15
- .byte 102,69,15,253,251 // paddw %xmm11,%xmm15
- .byte 102,65,15,253,249 // paddw %xmm9,%xmm7
- .byte 102,65,15,253,236 // paddw %xmm12,%xmm5
- .byte 102,65,15,253,242 // paddw %xmm10,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,65,15,113,215,8 // psrlw $0x8,%xmm15
- .byte 102,68,15,103,255 // packuswb %xmm7,%xmm15
- .byte 243,15,112,204,231 // pshufhw $0xe7,%xmm4,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,225,95 // pshufhw $0x5f,%xmm1,%xmm4
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,200,95 // pshufhw $0x5f,%xmm0,%xmm1
- .byte 102,65,15,239,200 // pxor %xmm8,%xmm1
- .byte 102,65,15,239,224 // pxor %xmm8,%xmm4
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,65,15,96,213 // punpcklbw %xmm13,%xmm2
- .byte 102,69,15,104,197 // punpckhbw %xmm13,%xmm8
- .byte 102,65,15,111,198 // movdqa %xmm14,%xmm0
- .byte 102,15,127,68,36,232 // movdqa %xmm0,-0x18(%rsp)
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,65,15,96,245 // punpcklbw %xmm13,%xmm6
- .byte 102,69,15,104,245 // punpckhbw %xmm13,%xmm14
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,96,197 // punpcklbw %xmm13,%xmm0
- .byte 102,65,15,104,229 // punpckhbw %xmm13,%xmm4
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,65,15,96,253 // punpcklbw %xmm13,%xmm7
- .byte 102,65,15,104,205 // punpckhbw %xmm13,%xmm1
- .byte 102,65,15,213,206 // pmullw %xmm14,%xmm1
- .byte 102,15,213,254 // pmullw %xmm6,%xmm7
- .byte 102,15,253,254 // paddw %xmm6,%xmm7
- .byte 102,65,15,253,206 // paddw %xmm14,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,249 // packuswb %xmm1,%xmm7
- .byte 102,15,252,253 // paddb %xmm5,%xmm7
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,253,194 // paddw %xmm2,%xmm0
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,196 // packuswb %xmm4,%xmm0
- .byte 102,65,15,252,199 // paddb %xmm15,%xmm0
- .byte 102,65,15,213,211 // pmullw %xmm11,%xmm2
- .byte 102,65,15,253,211 // paddw %xmm11,%xmm2
- .byte 102,69,15,213,193 // pmullw %xmm9,%xmm8
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,65,15,213,244 // pmullw %xmm12,%xmm6
- .byte 102,65,15,253,244 // paddw %xmm12,%xmm6
- .byte 102,69,15,213,242 // pmullw %xmm10,%xmm14
- .byte 102,69,15,253,242 // paddw %xmm10,%xmm14
- .byte 102,65,15,113,214,8 // psrlw $0x8,%xmm14
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,65,15,103,246 // packuswb %xmm14,%xmm6
- .byte 102,15,252,254 // paddb %xmm6,%xmm7
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,65,15,103,208 // packuswb %xmm8,%xmm2
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 15,40,92,36,232 // movaps -0x18(%rsp),%xmm3
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_sse2_8bit
-.globl _sk_screen_sse2_8bit
-FUNCTION(_sk_screen_sse2_8bit)
-_sk_screen_sse2_8bit:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,15,118,255 // pcmpeqd %xmm7,%xmm7
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,239,215 // pxor %xmm7,%xmm10
- .byte 102,15,239,248 // pxor %xmm0,%xmm7
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,65,15,96,233 // punpcklbw %xmm9,%xmm5
- .byte 102,65,15,104,249 // punpckhbw %xmm9,%xmm7
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,96,201 // punpcklbw %xmm9,%xmm1
- .byte 102,69,15,104,209 // punpckhbw %xmm9,%xmm10
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
- .byte 102,69,15,96,217 // punpcklbw %xmm9,%xmm11
- .byte 102,65,15,104,225 // punpckhbw %xmm9,%xmm4
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,69,15,96,225 // punpcklbw %xmm9,%xmm12
- .byte 102,65,15,104,241 // punpckhbw %xmm9,%xmm6
- .byte 102,65,15,213,242 // pmullw %xmm10,%xmm6
- .byte 102,68,15,213,225 // pmullw %xmm1,%xmm12
- .byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,213,221 // pmullw %xmm5,%xmm11
- .byte 102,65,15,253,235 // paddw %xmm11,%xmm5
- .byte 102,15,253,231 // paddw %xmm7,%xmm4
- .byte 102,65,15,253,204 // paddw %xmm12,%xmm1
- .byte 102,65,15,253,242 // paddw %xmm10,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,206 // packuswb %xmm6,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,236 // packuswb %xmm4,%xmm5
- .byte 102,15,252,197 // paddb %xmm5,%xmm0
- .byte 102,65,15,252,200 // paddb %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__sse2_8bit
-.globl _sk_xor__sse2_8bit
-FUNCTION(_sk_xor__sse2_8bit)
-_sk_xor__sse2_8bit:
- .byte 242,15,112,226,231 // pshuflw $0xe7,%xmm2,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm12
- .byte 242,15,112,227,231 // pshuflw $0xe7,%xmm3,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm4
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,239,224 // pxor %xmm8,%xmm4
- .byte 102,69,15,239,224 // pxor %xmm8,%xmm12
- .byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 242,68,15,112,216,231 // pshuflw $0xe7,%xmm0,%xmm11
- .byte 102,65,15,96,194 // punpcklbw %xmm10,%xmm0
- .byte 102,69,15,104,202 // punpckhbw %xmm10,%xmm9
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 242,68,15,112,233,231 // pshuflw $0xe7,%xmm1,%xmm13
- .byte 102,65,15,96,202 // punpcklbw %xmm10,%xmm1
- .byte 102,65,15,104,242 // punpckhbw %xmm10,%xmm6
- .byte 102,65,15,111,236 // movdqa %xmm12,%xmm5
- .byte 102,65,15,96,234 // punpcklbw %xmm10,%xmm5
- .byte 102,69,15,104,226 // punpckhbw %xmm10,%xmm12
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,65,15,96,250 // punpcklbw %xmm10,%xmm7
- .byte 102,65,15,104,226 // punpckhbw %xmm10,%xmm4
- .byte 102,15,213,230 // pmullw %xmm6,%xmm4
- .byte 102,15,213,249 // pmullw %xmm1,%xmm7
- .byte 102,69,15,213,225 // pmullw %xmm9,%xmm12
- .byte 102,15,213,232 // pmullw %xmm0,%xmm5
- .byte 102,15,253,232 // paddw %xmm0,%xmm5
- .byte 102,69,15,253,225 // paddw %xmm9,%xmm12
- .byte 102,15,253,249 // paddw %xmm1,%xmm7
- .byte 102,15,253,230 // paddw %xmm6,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,65,15,103,236 // packuswb %xmm12,%xmm5
- .byte 243,65,15,112,195,231 // pshufhw $0xe7,%xmm11,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,224,95 // pshufhw $0x5f,%xmm0,%xmm4
- .byte 243,65,15,112,197,231 // pshufhw $0xe7,%xmm13,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,240,95 // pshufhw $0x5f,%xmm0,%xmm6
- .byte 102,65,15,239,240 // pxor %xmm8,%xmm6
- .byte 102,65,15,239,224 // pxor %xmm8,%xmm4
- .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,69,15,96,202 // punpcklbw %xmm10,%xmm9
- .byte 102,69,15,104,194 // punpckhbw %xmm10,%xmm8
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,69,15,96,226 // punpcklbw %xmm10,%xmm12
- .byte 102,69,15,104,218 // punpckhbw %xmm10,%xmm11
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,96,194 // punpcklbw %xmm10,%xmm0
- .byte 102,65,15,104,226 // punpckhbw %xmm10,%xmm4
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,65,15,96,202 // punpcklbw %xmm10,%xmm1
- .byte 102,65,15,104,242 // punpckhbw %xmm10,%xmm6
- .byte 102,65,15,213,243 // pmullw %xmm11,%xmm6
- .byte 102,65,15,213,204 // pmullw %xmm12,%xmm1
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,65,15,253,204 // paddw %xmm12,%xmm1
- .byte 102,65,15,253,243 // paddw %xmm11,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,206 // packuswb %xmm6,%xmm1
- .byte 102,15,252,207 // paddb %xmm7,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,196 // packuswb %xmm4,%xmm0
- .byte 102,15,252,197 // paddb %xmm5,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__sse2_8bit
-.globl _sk_plus__sse2_8bit
-FUNCTION(_sk_plus__sse2_8bit)
-_sk_plus__sse2_8bit:
- .byte 102,15,220,194 // paddusb %xmm2,%xmm0
- .byte 102,15,220,203 // paddusb %xmm3,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_sse2_8bit
-.globl _sk_darken_sse2_8bit
-FUNCTION(_sk_darken_sse2_8bit)
-_sk_darken_sse2_8bit:
- .byte 242,15,112,227,231 // pshuflw $0xe7,%xmm3,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm4
- .byte 242,15,112,234,231 // pshuflw $0xe7,%xmm2,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,253,95 // pshufhw $0x5f,%xmm5,%xmm7
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,65,15,96,240 // punpcklbw %xmm8,%xmm6
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,69,15,104,200 // punpckhbw %xmm8,%xmm9
- .byte 102,68,15,111,217 // movdqa %xmm1,%xmm11
- .byte 102,69,15,96,216 // punpcklbw %xmm8,%xmm11
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 102,69,15,104,224 // punpckhbw %xmm8,%xmm12
- .byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
- .byte 102,69,15,96,208 // punpcklbw %xmm8,%xmm10
- .byte 102,65,15,104,248 // punpckhbw %xmm8,%xmm7
- .byte 102,68,15,111,236 // movdqa %xmm4,%xmm13
- .byte 102,69,15,96,232 // punpcklbw %xmm8,%xmm13
- .byte 102,65,15,104,224 // punpckhbw %xmm8,%xmm4
- .byte 102,65,15,213,228 // pmullw %xmm12,%xmm4
- .byte 102,69,15,213,235 // pmullw %xmm11,%xmm13
- .byte 102,65,15,213,249 // pmullw %xmm9,%xmm7
- .byte 102,68,15,213,214 // pmullw %xmm6,%xmm10
- .byte 102,68,15,253,214 // paddw %xmm6,%xmm10
- .byte 102,65,15,253,249 // paddw %xmm9,%xmm7
- .byte 102,69,15,253,235 // paddw %xmm11,%xmm13
- .byte 102,65,15,253,228 // paddw %xmm12,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,65,15,113,213,8 // psrlw $0x8,%xmm13
- .byte 102,68,15,103,236 // packuswb %xmm4,%xmm13
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,68,15,103,215 // packuswb %xmm7,%xmm10
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,220,95 // pshufhw $0x5f,%xmm4,%xmm11
- .byte 242,15,112,224,231 // pshuflw $0xe7,%xmm0,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm12
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,65,15,96,240 // punpcklbw %xmm8,%xmm6
- .byte 102,69,15,104,200 // punpckhbw %xmm8,%xmm9
- .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
- .byte 102,15,252,203 // paddb %xmm3,%xmm1
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,65,15,96,232 // punpcklbw %xmm8,%xmm5
- .byte 102,69,15,104,240 // punpckhbw %xmm8,%xmm14
- .byte 102,65,15,111,228 // movdqa %xmm12,%xmm4
- .byte 102,65,15,96,224 // punpcklbw %xmm8,%xmm4
- .byte 102,69,15,104,224 // punpckhbw %xmm8,%xmm12
- .byte 102,65,15,111,251 // movdqa %xmm11,%xmm7
- .byte 102,65,15,96,248 // punpcklbw %xmm8,%xmm7
- .byte 102,69,15,104,216 // punpckhbw %xmm8,%xmm11
- .byte 102,69,15,213,222 // pmullw %xmm14,%xmm11
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,69,15,213,225 // pmullw %xmm9,%xmm12
- .byte 102,15,213,230 // pmullw %xmm6,%xmm4
- .byte 102,15,253,230 // paddw %xmm6,%xmm4
- .byte 102,69,15,253,225 // paddw %xmm9,%xmm12
- .byte 102,15,253,253 // paddw %xmm5,%xmm7
- .byte 102,69,15,253,222 // paddw %xmm14,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,65,15,103,251 // packuswb %xmm11,%xmm7
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,65,15,103,228 // packuswb %xmm12,%xmm4
- .byte 102,68,15,222,212 // pmaxub %xmm4,%xmm10
- .byte 102,68,15,222,239 // pmaxub %xmm7,%xmm13
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,65,15,248,245 // psubb %xmm13,%xmm6
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,65,15,248,234 // psubb %xmm10,%xmm5
- .byte 102,15,248,207 // psubb %xmm7,%xmm1
- .byte 102,15,248,196 // psubb %xmm4,%xmm0
- .byte 102,15,111,37,123,140,0,0 // movdqa 0x8c7b(%rip),%xmm4 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0x1684>
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,223,248 // pandn %xmm0,%xmm7
- .byte 102,15,235,239 // por %xmm7,%xmm5
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,15,223,225 // pandn %xmm1,%xmm4
- .byte 102,15,235,244 // por %xmm4,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_sse2_8bit
-.globl _sk_lighten_sse2_8bit
-FUNCTION(_sk_lighten_sse2_8bit)
-_sk_lighten_sse2_8bit:
- .byte 242,15,112,227,231 // pshuflw $0xe7,%xmm3,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm4
- .byte 242,15,112,234,231 // pshuflw $0xe7,%xmm2,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,253,95 // pshufhw $0x5f,%xmm5,%xmm7
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,65,15,96,240 // punpcklbw %xmm8,%xmm6
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,69,15,104,200 // punpckhbw %xmm8,%xmm9
- .byte 102,68,15,111,217 // movdqa %xmm1,%xmm11
- .byte 102,69,15,96,216 // punpcklbw %xmm8,%xmm11
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 102,69,15,104,224 // punpckhbw %xmm8,%xmm12
- .byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
- .byte 102,69,15,96,208 // punpcklbw %xmm8,%xmm10
- .byte 102,65,15,104,248 // punpckhbw %xmm8,%xmm7
- .byte 102,68,15,111,236 // movdqa %xmm4,%xmm13
- .byte 102,69,15,96,232 // punpcklbw %xmm8,%xmm13
- .byte 102,65,15,104,224 // punpckhbw %xmm8,%xmm4
- .byte 102,65,15,213,228 // pmullw %xmm12,%xmm4
- .byte 102,69,15,213,235 // pmullw %xmm11,%xmm13
- .byte 102,65,15,213,249 // pmullw %xmm9,%xmm7
- .byte 102,68,15,213,214 // pmullw %xmm6,%xmm10
- .byte 102,68,15,253,214 // paddw %xmm6,%xmm10
- .byte 102,65,15,253,249 // paddw %xmm9,%xmm7
- .byte 102,69,15,253,235 // paddw %xmm11,%xmm13
- .byte 102,65,15,253,228 // paddw %xmm12,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,65,15,113,213,8 // psrlw $0x8,%xmm13
- .byte 102,68,15,103,236 // packuswb %xmm4,%xmm13
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,68,15,103,215 // packuswb %xmm7,%xmm10
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,220,95 // pshufhw $0x5f,%xmm4,%xmm11
- .byte 242,15,112,224,231 // pshuflw $0xe7,%xmm0,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm12
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,65,15,96,240 // punpcklbw %xmm8,%xmm6
- .byte 102,69,15,104,200 // punpckhbw %xmm8,%xmm9
- .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
- .byte 102,15,252,203 // paddb %xmm3,%xmm1
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,65,15,96,232 // punpcklbw %xmm8,%xmm5
- .byte 102,69,15,104,240 // punpckhbw %xmm8,%xmm14
- .byte 102,65,15,111,228 // movdqa %xmm12,%xmm4
- .byte 102,65,15,96,224 // punpcklbw %xmm8,%xmm4
- .byte 102,69,15,104,224 // punpckhbw %xmm8,%xmm12
- .byte 102,65,15,111,251 // movdqa %xmm11,%xmm7
- .byte 102,65,15,96,248 // punpcklbw %xmm8,%xmm7
- .byte 102,69,15,104,216 // punpckhbw %xmm8,%xmm11
- .byte 102,69,15,213,222 // pmullw %xmm14,%xmm11
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,69,15,213,225 // pmullw %xmm9,%xmm12
- .byte 102,15,213,230 // pmullw %xmm6,%xmm4
- .byte 102,15,253,230 // paddw %xmm6,%xmm4
- .byte 102,69,15,253,225 // paddw %xmm9,%xmm12
- .byte 102,15,253,253 // paddw %xmm5,%xmm7
- .byte 102,69,15,253,222 // paddw %xmm14,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,65,15,103,251 // packuswb %xmm11,%xmm7
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,65,15,103,228 // packuswb %xmm12,%xmm4
- .byte 102,68,15,218,212 // pminub %xmm4,%xmm10
- .byte 102,68,15,218,239 // pminub %xmm7,%xmm13
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,65,15,248,245 // psubb %xmm13,%xmm6
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,65,15,248,234 // psubb %xmm10,%xmm5
- .byte 102,15,248,207 // psubb %xmm7,%xmm1
- .byte 102,15,248,196 // psubb %xmm4,%xmm0
- .byte 102,15,111,37,143,138,0,0 // movdqa 0x8a8f(%rip),%xmm4 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0x1684>
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,223,248 // pandn %xmm0,%xmm7
- .byte 102,15,235,239 // por %xmm7,%xmm5
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,15,223,225 // pandn %xmm1,%xmm4
- .byte 102,15,235,244 // por %xmm4,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_sse2_8bit
-.globl _sk_exclusion_sse2_8bit
-FUNCTION(_sk_exclusion_sse2_8bit)
-_sk_exclusion_sse2_8bit:
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,69,15,96,200 // punpcklbw %xmm8,%xmm9
- .byte 102,68,15,111,208 // movdqa %xmm0,%xmm10
- .byte 102,69,15,104,208 // punpckhbw %xmm8,%xmm10
- .byte 102,68,15,111,217 // movdqa %xmm1,%xmm11
- .byte 102,69,15,96,216 // punpcklbw %xmm8,%xmm11
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 102,69,15,104,224 // punpckhbw %xmm8,%xmm12
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,65,15,96,240 // punpcklbw %xmm8,%xmm6
- .byte 102,65,15,104,224 // punpckhbw %xmm8,%xmm4
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,252,203 // paddb %xmm3,%xmm1
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,65,15,96,232 // punpcklbw %xmm8,%xmm5
- .byte 102,65,15,104,248 // punpckhbw %xmm8,%xmm7
- .byte 102,65,15,213,252 // pmullw %xmm12,%xmm7
- .byte 102,65,15,213,235 // pmullw %xmm11,%xmm5
- .byte 102,65,15,213,226 // pmullw %xmm10,%xmm4
- .byte 102,65,15,213,241 // pmullw %xmm9,%xmm6
- .byte 102,65,15,253,241 // paddw %xmm9,%xmm6
- .byte 102,65,15,253,226 // paddw %xmm10,%xmm4
- .byte 102,65,15,253,235 // paddw %xmm11,%xmm5
- .byte 102,65,15,253,252 // paddw %xmm12,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,239 // packuswb %xmm7,%xmm5
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,244 // packuswb %xmm4,%xmm6
- .byte 102,15,111,37,194,137,0,0 // movdqa 0x89c2(%rip),%xmm4 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0x1684>
- .byte 102,15,248,205 // psubb %xmm5,%xmm1
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,248,205 // psubb %xmm5,%xmm1
- .byte 102,15,248,198 // psubb %xmm6,%xmm0
- .byte 102,15,248,196 // psubb %xmm4,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_sse2_8bit
-.globl _sk_difference_sse2_8bit
-FUNCTION(_sk_difference_sse2_8bit)
-_sk_difference_sse2_8bit:
- .byte 242,15,112,227,231 // pshuflw $0xe7,%xmm3,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm4
- .byte 242,15,112,234,231 // pshuflw $0xe7,%xmm2,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,253,95 // pshufhw $0x5f,%xmm5,%xmm7
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,65,15,96,232 // punpcklbw %xmm8,%xmm5
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,65,15,104,240 // punpckhbw %xmm8,%xmm6
- .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
- .byte 102,69,15,96,200 // punpcklbw %xmm8,%xmm9
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 102,69,15,104,224 // punpckhbw %xmm8,%xmm12
- .byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
- .byte 102,69,15,96,208 // punpcklbw %xmm8,%xmm10
- .byte 102,65,15,104,248 // punpckhbw %xmm8,%xmm7
- .byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
- .byte 102,69,15,96,216 // punpcklbw %xmm8,%xmm11
- .byte 102,65,15,104,224 // punpckhbw %xmm8,%xmm4
- .byte 102,65,15,213,228 // pmullw %xmm12,%xmm4
- .byte 102,69,15,213,217 // pmullw %xmm9,%xmm11
- .byte 102,15,213,254 // pmullw %xmm6,%xmm7
- .byte 102,68,15,213,213 // pmullw %xmm5,%xmm10
- .byte 102,68,15,253,213 // paddw %xmm5,%xmm10
- .byte 102,15,253,254 // paddw %xmm6,%xmm7
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,65,15,253,228 // paddw %xmm12,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,103,220 // packuswb %xmm4,%xmm11
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,68,15,103,215 // packuswb %xmm7,%xmm10
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm12
- .byte 242,15,112,224,231 // pshuflw $0xe7,%xmm0,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,236,95 // pshufhw $0x5f,%xmm4,%xmm13
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,65,15,96,232 // punpcklbw %xmm8,%xmm5
- .byte 102,69,15,104,200 // punpckhbw %xmm8,%xmm9
- .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
- .byte 102,15,252,203 // paddb %xmm3,%xmm1
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,65,15,96,248 // punpcklbw %xmm8,%xmm7
- .byte 102,69,15,104,240 // punpckhbw %xmm8,%xmm14
- .byte 102,65,15,111,229 // movdqa %xmm13,%xmm4
- .byte 102,65,15,96,224 // punpcklbw %xmm8,%xmm4
- .byte 102,69,15,104,232 // punpckhbw %xmm8,%xmm13
- .byte 102,65,15,111,244 // movdqa %xmm12,%xmm6
- .byte 102,65,15,96,240 // punpcklbw %xmm8,%xmm6
- .byte 102,69,15,104,224 // punpckhbw %xmm8,%xmm12
- .byte 102,69,15,213,230 // pmullw %xmm14,%xmm12
- .byte 102,15,213,247 // pmullw %xmm7,%xmm6
- .byte 102,69,15,213,233 // pmullw %xmm9,%xmm13
- .byte 102,15,213,229 // pmullw %xmm5,%xmm4
- .byte 102,15,253,229 // paddw %xmm5,%xmm4
- .byte 102,69,15,253,233 // paddw %xmm9,%xmm13
- .byte 102,15,253,247 // paddw %xmm7,%xmm6
- .byte 102,69,15,253,230 // paddw %xmm14,%xmm12
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,65,15,103,244 // packuswb %xmm12,%xmm6
- .byte 102,65,15,218,243 // pminub %xmm11,%xmm6
- .byte 102,65,15,113,213,8 // psrlw $0x8,%xmm13
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,65,15,103,229 // packuswb %xmm13,%xmm4
- .byte 102,65,15,218,226 // pminub %xmm10,%xmm4
- .byte 102,15,111,45,255,135,0,0 // movdqa 0x87ff(%rip),%xmm5 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0x1684>
- .byte 102,15,248,206 // psubb %xmm6,%xmm1
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 102,15,248,206 // psubb %xmm6,%xmm1
- .byte 102,15,248,196 // psubb %xmm4,%xmm0
- .byte 102,15,248,197 // psubb %xmm5,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_sse2_8bit
-.globl _sk_hardlight_sse2_8bit
-FUNCTION(_sk_hardlight_sse2_8bit)
-_sk_hardlight_sse2_8bit:
- .byte 72,129,236,152,0,0,0 // sub $0x98,%rsp
- .byte 102,68,15,111,250 // movdqa %xmm2,%xmm15
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
- .byte 102,15,127,68,36,48 // movdqa %xmm0,0x30(%rsp)
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
- .byte 102,15,127,68,36,192 // movdqa %xmm0,-0x40(%rsp)
- .byte 242,15,112,198,231 // pshuflw $0xe7,%xmm6,%xmm0
- .byte 102,15,104,244 // punpckhbw %xmm4,%xmm6
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,68,15,112,192,95 // pshufhw $0x5f,%xmm0,%xmm8
- .byte 242,15,112,193,231 // pshuflw $0xe7,%xmm1,%xmm0
- .byte 102,15,104,204 // punpckhbw %xmm4,%xmm1
- .byte 102,68,15,111,241 // movdqa %xmm1,%xmm14
- .byte 102,68,15,127,116,36,32 // movdqa %xmm14,0x20(%rsp)
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,200,95 // pshufhw $0x5f,%xmm0,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0
- .byte 102,15,127,68,36,208 // movdqa %xmm0,-0x30(%rsp)
- .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1
- .byte 102,15,127,76,36,176 // movdqa %xmm1,-0x50(%rsp)
- .byte 102,69,15,111,232 // movdqa %xmm8,%xmm13
- .byte 102,68,15,104,236 // punpckhbw %xmm4,%xmm13
- .byte 102,68,15,127,108,36,144 // movdqa %xmm13,-0x70(%rsp)
- .byte 102,68,15,96,196 // punpcklbw %xmm4,%xmm8
- .byte 102,68,15,127,68,36,128 // movdqa %xmm8,-0x80(%rsp)
- .byte 102,68,15,127,188,36,128,0,0,0 // movdqa %xmm15,0x80(%rsp)
- .byte 102,65,15,111,207 // movdqa %xmm15,%xmm1
- .byte 242,65,15,112,199,231 // pshuflw $0xe7,%xmm15,%xmm0
- .byte 102,68,15,96,252 // punpcklbw %xmm4,%xmm15
- .byte 102,15,104,204 // punpckhbw %xmm4,%xmm1
- .byte 102,15,127,76,36,240 // movdqa %xmm1,-0x10(%rsp)
- .byte 102,15,127,92,36,112 // movdqa %xmm3,0x70(%rsp)
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,68,15,96,228 // punpcklbw %xmm4,%xmm12
- .byte 102,68,15,127,36,36 // movdqa %xmm12,(%rsp)
- .byte 102,15,104,252 // punpckhbw %xmm4,%xmm7
- .byte 102,15,127,124,36,16 // movdqa %xmm7,0x10(%rsp)
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,68,15,112,200,95 // pshufhw $0x5f,%xmm0,%xmm9
- .byte 242,15,112,203,231 // pshuflw $0xe7,%xmm3,%xmm1
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,68,15,112,217,95 // pshufhw $0x5f,%xmm1,%xmm11
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,127,76,36,160 // movdqa %xmm1,-0x60(%rsp)
- .byte 102,68,15,96,220 // punpcklbw %xmm4,%xmm11
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,15,104,220 // punpckhbw %xmm4,%xmm3
- .byte 102,68,15,96,204 // punpcklbw %xmm4,%xmm9
- .byte 102,68,15,111,21,69,126,0,0 // movdqa 0x7e45(%rip),%xmm10 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
- .byte 102,65,15,239,210 // pxor %xmm10,%xmm2
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,65,15,239,226 // pxor %xmm10,%xmm4
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,65,15,239,194 // pxor %xmm10,%xmm0
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,65,15,239,234 // pxor %xmm10,%xmm5
- .byte 102,65,15,213,238 // pmullw %xmm14,%xmm5
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,65,15,239,202 // pxor %xmm10,%xmm1
- .byte 102,69,15,239,234 // pxor %xmm10,%xmm13
- .byte 102,68,15,111,68,36,176 // movdqa -0x50(%rsp),%xmm8
- .byte 102,69,15,239,194 // pxor %xmm10,%xmm8
- .byte 102,68,15,239,84,36,208 // pxor -0x30(%rsp),%xmm10
- .byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
- .byte 102,68,15,253,213 // paddw %xmm5,%xmm10
- .byte 102,15,213,68,36,192 // pmullw -0x40(%rsp),%xmm0
- .byte 102,69,15,213,196 // pmullw %xmm12,%xmm8
- .byte 102,68,15,253,192 // paddw %xmm0,%xmm8
- .byte 102,68,15,127,68,36,96 // movdqa %xmm8,0x60(%rsp)
- .byte 102,15,213,230 // pmullw %xmm6,%xmm4
- .byte 102,15,111,108,36,240 // movdqa -0x10(%rsp),%xmm5
- .byte 102,68,15,213,237 // pmullw %xmm5,%xmm13
- .byte 102,68,15,253,236 // paddw %xmm4,%xmm13
- .byte 102,68,15,127,108,36,80 // movdqa %xmm13,0x50(%rsp)
- .byte 102,68,15,111,100,36,48 // movdqa 0x30(%rsp),%xmm12
- .byte 102,65,15,213,212 // pmullw %xmm12,%xmm2
- .byte 102,65,15,213,207 // pmullw %xmm15,%xmm1
- .byte 102,15,253,202 // paddw %xmm2,%xmm1
- .byte 102,15,127,76,36,64 // movdqa %xmm1,0x40(%rsp)
- .byte 102,69,15,111,196 // movdqa %xmm12,%xmm8
- .byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
- .byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,15,111,68,36,128 // movdqa -0x80(%rsp),%xmm0
- .byte 102,68,15,101,192 // pcmpgtw %xmm0,%xmm8
- .byte 102,69,15,111,233 // movdqa %xmm9,%xmm13
- .byte 102,69,15,249,207 // psubw %xmm15,%xmm9
- .byte 102,68,15,213,249 // pmullw %xmm1,%xmm15
- .byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
- .byte 102,68,15,213,232 // pmullw %xmm0,%xmm13
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,15,127,68,36,128 // movdqa %xmm0,-0x80(%rsp)
- .byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
- .byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,68,36,144 // movdqa -0x70(%rsp),%xmm0
- .byte 102,68,15,101,200 // pcmpgtw %xmm0,%xmm9
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,249,221 // psubw %xmm5,%xmm3
- .byte 102,68,15,111,245 // movdqa %xmm5,%xmm14
- .byte 102,68,15,213,246 // pmullw %xmm6,%xmm14
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,15,249,198 // psubw %xmm6,%xmm0
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,127,68,36,144 // movdqa %xmm0,-0x70(%rsp)
- .byte 102,15,111,92,36,192 // movdqa -0x40(%rsp),%xmm3
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,253,237 // paddw %xmm5,%xmm5
- .byte 102,15,111,68,36,176 // movdqa -0x50(%rsp),%xmm0
- .byte 102,15,101,232 // pcmpgtw %xmm0,%xmm5
- .byte 102,65,15,111,243 // movdqa %xmm11,%xmm6
- .byte 102,68,15,111,60,36 // movdqa (%rsp),%xmm15
- .byte 102,69,15,249,223 // psubw %xmm15,%xmm11
- .byte 102,68,15,213,251 // pmullw %xmm3,%xmm15
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,15,249,195 // psubw %xmm3,%xmm0
- .byte 102,65,15,213,195 // pmullw %xmm11,%xmm0
- .byte 102,68,15,111,216 // movdqa %xmm0,%xmm11
- .byte 102,15,111,84,36,32 // movdqa 0x20(%rsp),%xmm2
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,68,36,208 // movdqa -0x30(%rsp),%xmm0
- .byte 102,15,101,224 // pcmpgtw %xmm0,%xmm4
- .byte 102,15,111,76,36,160 // movdqa -0x60(%rsp),%xmm1
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,68,15,111,100,36,16 // movdqa 0x10(%rsp),%xmm12
- .byte 102,65,15,249,204 // psubw %xmm12,%xmm1
- .byte 102,15,127,76,36,160 // movdqa %xmm1,-0x60(%rsp)
- .byte 102,68,15,213,226 // pmullw %xmm2,%xmm12
- .byte 102,15,213,216 // pmullw %xmm0,%xmm3
- .byte 102,15,249,194 // psubw %xmm2,%xmm0
- .byte 102,15,213,68,36,160 // pmullw -0x60(%rsp),%xmm0
- .byte 102,15,111,76,36,128 // movdqa -0x80(%rsp),%xmm1
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,68,15,249,233 // psubw %xmm1,%xmm13
- .byte 102,15,111,76,36,144 // movdqa -0x70(%rsp),%xmm1
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,15,249,249 // psubw %xmm1,%xmm7
- .byte 102,69,15,253,219 // paddw %xmm11,%xmm11
- .byte 102,65,15,249,243 // psubw %xmm11,%xmm6
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,249,216 // psubw %xmm0,%xmm3
- .byte 102,15,111,68,36,224 // movdqa -0x20(%rsp),%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,69,15,219,232 // pand %xmm8,%xmm13
- .byte 102,68,15,223,192 // pandn %xmm0,%xmm8
- .byte 102,69,15,235,197 // por %xmm13,%xmm8
- .byte 102,69,15,253,246 // paddw %xmm14,%xmm14
- .byte 102,65,15,219,249 // pand %xmm9,%xmm7
- .byte 102,69,15,223,206 // pandn %xmm14,%xmm9
- .byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,69,15,253,255 // paddw %xmm15,%xmm15
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,65,15,223,239 // pandn %xmm15,%xmm5
- .byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 102,69,15,253,228 // paddw %xmm12,%xmm12
- .byte 102,15,219,220 // pand %xmm4,%xmm3
- .byte 102,65,15,223,228 // pandn %xmm12,%xmm4
- .byte 102,15,235,227 // por %xmm3,%xmm4
- .byte 102,15,111,5,102,132,0,0 // movdqa 0x8466(%rip),%xmm0 # 34110 <_sk_srcover_rgba_8888_sse2_lowp+0x1694>
- .byte 102,15,111,76,36,64 // movdqa 0x40(%rsp),%xmm1
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,68,15,253,193 // paddw %xmm1,%xmm8
- .byte 102,15,111,76,36,80 // movdqa 0x50(%rsp),%xmm1
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,111,92,36,96 // movdqa 0x60(%rsp),%xmm3
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,15,253,235 // paddw %xmm3,%xmm5
- .byte 102,68,15,253,208 // paddw %xmm0,%xmm10
- .byte 102,68,15,253,212 // paddw %xmm4,%xmm10
- .byte 102,15,111,5,56,132,0,0 // movdqa 0x8438(%rip),%xmm0 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0x16a4>
- .byte 102,68,15,228,208 // pmulhuw %xmm0,%xmm10
- .byte 102,65,15,113,210,7 // psrlw $0x7,%xmm10
- .byte 102,15,228,232 // pmulhuw %xmm0,%xmm5
- .byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,65,15,103,234 // packuswb %xmm10,%xmm5
- .byte 102,15,228,200 // pmulhuw %xmm0,%xmm1
- .byte 102,68,15,228,192 // pmulhuw %xmm0,%xmm8
- .byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8
- .byte 102,68,15,103,193 // packuswb %xmm1,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,148,36,128,0,0,0 // movaps 0x80(%rsp),%xmm2
- .byte 15,40,92,36,112 // movaps 0x70(%rsp),%xmm3
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 72,129,196,152,0,0,0 // add $0x98,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_sse2_8bit
-.globl _sk_overlay_sse2_8bit
-FUNCTION(_sk_overlay_sse2_8bit)
-_sk_overlay_sse2_8bit:
- .byte 72,129,236,136,0,0,0 // sub $0x88,%rsp
- .byte 102,68,15,111,242 // movdqa %xmm2,%xmm14
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,96,229 // punpcklbw %xmm5,%xmm4
- .byte 102,15,127,100,36,128 // movdqa %xmm4,-0x80(%rsp)
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,96,229 // punpcklbw %xmm5,%xmm4
- .byte 102,15,127,100,36,176 // movdqa %xmm4,-0x50(%rsp)
- .byte 242,15,112,224,231 // pshuflw $0xe7,%xmm0,%xmm4
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,127,68,36,16 // movdqa %xmm0,0x10(%rsp)
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,68,15,112,252,95 // pshufhw $0x5f,%xmm4,%xmm15
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 102,15,104,205 // punpckhbw %xmm5,%xmm1
- .byte 102,68,15,111,209 // movdqa %xmm1,%xmm10
- .byte 102,68,15,127,84,36,32 // movdqa %xmm10,0x20(%rsp)
- .byte 243,15,112,204,231 // pshufhw $0xe7,%xmm4,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,68,15,112,217,95 // pshufhw $0x5f,%xmm1,%xmm11
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,127,68,36,160 // movdqa %xmm0,-0x60(%rsp)
- .byte 102,68,15,96,221 // punpcklbw %xmm5,%xmm11
- .byte 102,68,15,127,28,36 // movdqa %xmm11,(%rsp)
- .byte 102,65,15,111,207 // movdqa %xmm15,%xmm1
- .byte 102,15,104,205 // punpckhbw %xmm5,%xmm1
- .byte 102,68,15,111,233 // movdqa %xmm1,%xmm13
- .byte 102,68,15,127,108,36,224 // movdqa %xmm13,-0x20(%rsp)
- .byte 102,68,15,96,253 // punpcklbw %xmm5,%xmm15
- .byte 102,68,15,127,116,36,112 // movdqa %xmm14,0x70(%rsp)
- .byte 102,65,15,111,198 // movdqa %xmm14,%xmm0
- .byte 242,65,15,112,206,231 // pshuflw $0xe7,%xmm14,%xmm1
- .byte 102,68,15,96,245 // punpcklbw %xmm5,%xmm14
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,127,68,36,192 // movdqa %xmm0,-0x40(%rsp)
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,127,84,36,96 // movdqa %xmm2,0x60(%rsp)
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,68,15,96,205 // punpcklbw %xmm5,%xmm9
- .byte 102,15,104,221 // punpckhbw %xmm5,%xmm3
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,127,68,36,240 // movdqa %xmm0,-0x10(%rsp)
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,217,95 // pshufhw $0x5f,%xmm1,%xmm3
- .byte 242,15,112,202,231 // pshuflw $0xe7,%xmm2,%xmm1
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,225,95 // pshufhw $0x5f,%xmm1,%xmm4
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,104,205 // punpckhbw %xmm5,%xmm1
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,68,15,127,68,36,144 // movdqa %xmm8,-0x70(%rsp)
- .byte 102,15,96,229 // punpcklbw %xmm5,%xmm4
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,68,15,104,229 // punpckhbw %xmm5,%xmm12
- .byte 102,15,96,221 // punpcklbw %xmm5,%xmm3
- .byte 102,15,111,53,41,122,0,0 // movdqa 0x7a29(%rip),%xmm6 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,239,214 // pxor %xmm6,%xmm2
- .byte 102,65,15,111,252 // movdqa %xmm12,%xmm7
- .byte 102,15,239,254 // pxor %xmm6,%xmm7
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,239,206 // pxor %xmm6,%xmm1
- .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5
- .byte 102,15,239,238 // pxor %xmm6,%xmm5
- .byte 102,65,15,213,234 // pmullw %xmm10,%xmm5
- .byte 102,69,15,111,199 // movdqa %xmm15,%xmm8
- .byte 102,68,15,239,198 // pxor %xmm6,%xmm8
- .byte 102,69,15,111,213 // movdqa %xmm13,%xmm10
- .byte 102,68,15,239,214 // pxor %xmm6,%xmm10
- .byte 102,68,15,239,222 // pxor %xmm6,%xmm11
- .byte 102,15,239,116,36,160 // pxor -0x60(%rsp),%xmm6
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,15,253,245 // paddw %xmm5,%xmm6
- .byte 102,15,213,76,36,176 // pmullw -0x50(%rsp),%xmm1
- .byte 102,69,15,213,217 // pmullw %xmm9,%xmm11
- .byte 102,68,15,253,217 // paddw %xmm1,%xmm11
- .byte 102,68,15,127,92,36,48 // movdqa %xmm11,0x30(%rsp)
- .byte 102,15,111,68,36,16 // movdqa 0x10(%rsp),%xmm0
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
- .byte 102,68,15,213,213 // pmullw %xmm5,%xmm10
- .byte 102,68,15,253,215 // paddw %xmm7,%xmm10
- .byte 102,68,15,127,84,36,80 // movdqa %xmm10,0x50(%rsp)
- .byte 102,15,111,76,36,128 // movdqa -0x80(%rsp),%xmm1
- .byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,69,15,213,198 // pmullw %xmm14,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,68,15,127,68,36,64 // movdqa %xmm8,0x40(%rsp)
- .byte 102,65,15,111,214 // movdqa %xmm14,%xmm2
- .byte 102,15,253,210 // paddw %xmm2,%xmm2
- .byte 102,15,101,211 // pcmpgtw %xmm3,%xmm2
- .byte 102,15,127,84,36,208 // movdqa %xmm2,-0x30(%rsp)
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,65,15,249,222 // psubw %xmm14,%xmm3
- .byte 102,68,15,213,241 // pmullw %xmm1,%xmm14
- .byte 102,69,15,213,223 // pmullw %xmm15,%xmm11
- .byte 102,68,15,249,249 // psubw %xmm1,%xmm15
- .byte 102,68,15,213,251 // pmullw %xmm3,%xmm15
- .byte 102,68,15,127,124,36,128 // movdqa %xmm15,-0x80(%rsp)
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,65,15,101,220 // pcmpgtw %xmm12,%xmm3
- .byte 102,69,15,111,196 // movdqa %xmm12,%xmm8
- .byte 102,68,15,249,229 // psubw %xmm5,%xmm12
- .byte 102,15,213,232 // pmullw %xmm0,%xmm5
- .byte 102,68,15,111,108,36,224 // movdqa -0x20(%rsp),%xmm13
- .byte 102,69,15,213,197 // pmullw %xmm13,%xmm8
- .byte 102,68,15,249,232 // psubw %xmm0,%xmm13
- .byte 102,69,15,213,236 // pmullw %xmm12,%xmm13
- .byte 102,69,15,111,249 // movdqa %xmm9,%xmm15
- .byte 102,69,15,253,255 // paddw %xmm15,%xmm15
- .byte 102,68,15,101,252 // pcmpgtw %xmm4,%xmm15
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,65,15,249,225 // psubw %xmm9,%xmm4
- .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
- .byte 102,15,111,68,36,176 // movdqa -0x50(%rsp),%xmm0
- .byte 102,68,15,213,208 // pmullw %xmm0,%xmm10
- .byte 102,15,111,60,36 // movdqa (%rsp),%xmm7
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,15,249,248 // psubw %xmm0,%xmm7
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,68,15,111,76,36,240 // movdqa -0x10(%rsp),%xmm9
- .byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,68,36,144 // movdqa -0x70(%rsp),%xmm0
- .byte 102,15,101,224 // pcmpgtw %xmm0,%xmm4
- .byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
- .byte 102,65,15,249,193 // psubw %xmm9,%xmm0
- .byte 102,15,127,68,36,144 // movdqa %xmm0,-0x70(%rsp)
- .byte 102,15,111,84,36,32 // movdqa 0x20(%rsp),%xmm2
- .byte 102,68,15,213,202 // pmullw %xmm2,%xmm9
- .byte 102,15,111,68,36,160 // movdqa -0x60(%rsp),%xmm0
- .byte 102,68,15,213,224 // pmullw %xmm0,%xmm12
- .byte 102,15,249,194 // psubw %xmm2,%xmm0
- .byte 102,15,213,68,36,144 // pmullw -0x70(%rsp),%xmm0
- .byte 102,15,111,84,36,128 // movdqa -0x80(%rsp),%xmm2
- .byte 102,15,253,210 // paddw %xmm2,%xmm2
- .byte 102,68,15,249,218 // psubw %xmm2,%xmm11
- .byte 102,69,15,253,237 // paddw %xmm13,%xmm13
- .byte 102,69,15,249,197 // psubw %xmm13,%xmm8
- .byte 102,15,253,255 // paddw %xmm7,%xmm7
- .byte 102,15,249,207 // psubw %xmm7,%xmm1
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,249,224 // psubw %xmm0,%xmm12
- .byte 102,69,15,253,246 // paddw %xmm14,%xmm14
- .byte 102,15,111,68,36,208 // movdqa -0x30(%rsp),%xmm0
- .byte 102,68,15,219,216 // pand %xmm0,%xmm11
- .byte 102,65,15,223,198 // pandn %xmm14,%xmm0
- .byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,253,237 // paddw %xmm5,%xmm5
- .byte 102,68,15,219,195 // pand %xmm3,%xmm8
- .byte 102,15,223,221 // pandn %xmm5,%xmm3
- .byte 102,65,15,235,216 // por %xmm8,%xmm3
- .byte 102,69,15,253,210 // paddw %xmm10,%xmm10
- .byte 102,65,15,219,207 // pand %xmm15,%xmm1
- .byte 102,69,15,223,250 // pandn %xmm10,%xmm15
- .byte 102,65,15,235,207 // por %xmm15,%xmm1
- .byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,68,15,219,228 // pand %xmm4,%xmm12
- .byte 102,65,15,223,225 // pandn %xmm9,%xmm4
- .byte 102,65,15,235,228 // por %xmm12,%xmm4
- .byte 102,15,111,5,102,128,0,0 // movdqa 0x8066(%rip),%xmm0 # 34110 <_sk_srcover_rgba_8888_sse2_lowp+0x1694>
- .byte 102,15,111,84,36,64 // movdqa 0x40(%rsp),%xmm2
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,65,15,253,211 // paddw %xmm11,%xmm2
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,111,84,36,80 // movdqa 0x50(%rsp),%xmm2
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,15,253,211 // paddw %xmm3,%xmm2
- .byte 102,15,111,92,36,48 // movdqa 0x30(%rsp),%xmm3
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,15,253,217 // paddw %xmm1,%xmm3
- .byte 102,15,253,240 // paddw %xmm0,%xmm6
- .byte 102,15,253,244 // paddw %xmm4,%xmm6
- .byte 102,15,111,5,55,128,0,0 // movdqa 0x8037(%rip),%xmm0 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0x16a4>
- .byte 102,15,228,240 // pmulhuw %xmm0,%xmm6
- .byte 102,15,113,214,7 // psrlw $0x7,%xmm6
- .byte 102,15,228,216 // pmulhuw %xmm0,%xmm3
- .byte 102,15,113,211,7 // psrlw $0x7,%xmm3
- .byte 102,15,103,222 // packuswb %xmm6,%xmm3
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,228,208 // pmulhuw %xmm0,%xmm2
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 102,15,228,216 // pmulhuw %xmm0,%xmm3
- .byte 102,15,113,210,7 // psrlw $0x7,%xmm2
- .byte 102,15,113,211,7 // psrlw $0x7,%xmm3
- .byte 102,15,103,218 // packuswb %xmm2,%xmm3
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,84,36,112 // movaps 0x70(%rsp),%xmm2
- .byte 15,40,92,36,96 // movaps 0x60(%rsp),%xmm3
- .byte 72,129,196,136,0,0,0 // add $0x88,%rsp
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 144 // nop
-
HIDDEN _sk_start_pipeline_hsw_lowp
.globl _sk_start_pipeline_hsw_lowp
FUNCTION(_sk_start_pipeline_hsw_lowp)
@@ -53283,13 +43571,13 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 2c202 <_sk_start_pipeline_hsw_lowp+0xca>
+ .byte 15,131,151,0,0,0 // jae 22b42 <_sk_start_pipeline_hsw_lowp+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,16 // lea 0x10(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 2c1c4 <_sk_start_pipeline_hsw_lowp+0x8c>
+ .byte 119,67 // ja 22b04 <_sk_start_pipeline_hsw_lowp+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -53308,10 +43596,10 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,131,196,32 // add $0x20,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 2c185 <_sk_start_pipeline_hsw_lowp+0x4d>
+ .byte 118,193 // jbe 22ac5 <_sk_start_pipeline_hsw_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 2c1f5 <_sk_start_pipeline_hsw_lowp+0xbd>
+ .byte 116,41 // je 22b35 <_sk_start_pipeline_hsw_lowp+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -53325,7 +43613,7 @@ _sk_start_pipeline_hsw_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 2c177 <_sk_start_pipeline_hsw_lowp+0x3f>
+ .byte 15,133,117,255,255,255 // jne 22ab7 <_sk_start_pipeline_hsw_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -53367,7 +43655,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,160,115,0,0 // vpbroadcastw 0x73a0(%rip),%ymm3 # 33600 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
+ .byte 196,226,125,121,29,64,111,0,0 // vpbroadcastw 0x6f40(%rip),%ymm3 # 29ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x724>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -53378,7 +43666,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,137,115,0,0 // vpbroadcastw 0x7389(%rip),%ymm0 # 33602 <_sk_srcover_rgba_8888_sse2_lowp+0xb86>
+ .byte 196,226,125,121,5,41,111,0,0 // vpbroadcastw 0x6f29(%rip),%ymm0 # 29ae2 <_sk_srcover_rgba_8888_sse2_lowp+0x726>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -53389,8 +43677,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,115,116,0,0 // vmovss 0x7473(%rip),%xmm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
- .byte 197,250,16,21,155,116,0,0 // vmovss 0x749b(%rip),%xmm2 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 197,122,16,5,19,112,0,0 // vmovss 0x7013(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 197,250,16,21,59,112,0,0 // vmovss 0x703b(%rip),%xmm2 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -53413,7 +43701,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,24,115,0,0 // vpbroadcastw 0x7318(%rip),%ymm8 # 33604 <_sk_srcover_rgba_8888_sse2_lowp+0xb88>
+ .byte 196,98,125,121,5,184,110,0,0 // vpbroadcastw 0x6eb8(%rip),%ymm8 # 29ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x728>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -53461,7 +43749,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,175,114,0,0 // vpbroadcastw 0x72af(%rip),%ymm8 # 33606 <_sk_srcover_rgba_8888_sse2_lowp+0xb8a>
+ .byte 196,98,125,121,5,79,110,0,0 // vpbroadcastw 0x6e4f(%rip),%ymm8 # 29ae6 <_sk_srcover_rgba_8888_sse2_lowp+0x72a>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -53485,7 +43773,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,124,114,0,0 // vpbroadcastw 0x727c(%rip),%ymm8 # 33608 <_sk_srcover_rgba_8888_sse2_lowp+0xb8c>
+ .byte 196,98,125,121,5,28,110,0,0 // vpbroadcastw 0x6e1c(%rip),%ymm8 # 29ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x72c>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -53512,7 +43800,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,28,114,0,0 // vpbroadcastw 0x721c(%rip),%ymm9 # 3360a <_sk_srcover_rgba_8888_sse2_lowp+0xb8e>
+ .byte 196,98,125,121,13,188,109,0,0 // vpbroadcastw 0x6dbc(%rip),%ymm9 # 29aea <_sk_srcover_rgba_8888_sse2_lowp+0x72e>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -53539,7 +43827,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,185,113,0,0 // vpbroadcastw 0x71b9(%rip),%ymm8 # 3360c <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
+ .byte 196,98,125,121,5,89,109,0,0 // vpbroadcastw 0x6d59(%rip),%ymm8 # 29aec <_sk_srcover_rgba_8888_sse2_lowp+0x730>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -53559,7 +43847,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,118,113,0,0 // vpbroadcastw 0x7176(%rip),%ymm8 # 3360e <_sk_srcover_rgba_8888_sse2_lowp+0xb92>
+ .byte 196,98,125,121,5,22,109,0,0 // vpbroadcastw 0x6d16(%rip),%ymm8 # 29aee <_sk_srcover_rgba_8888_sse2_lowp+0x732>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -53578,7 +43866,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,55,113,0,0 // vpbroadcastw 0x7137(%rip),%ymm8 # 33610 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 196,98,125,121,5,215,108,0,0 // vpbroadcastw 0x6cd7(%rip),%ymm8 # 29af0 <_sk_srcover_rgba_8888_sse2_lowp+0x734>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -53599,7 +43887,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,240,112,0,0 // vpbroadcastw 0x70f0(%rip),%ymm8 # 33612 <_sk_srcover_rgba_8888_sse2_lowp+0xb96>
+ .byte 196,98,125,121,5,144,108,0,0 // vpbroadcastw 0x6c90(%rip),%ymm8 # 29af2 <_sk_srcover_rgba_8888_sse2_lowp+0x736>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -53620,7 +43908,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,169,112,0,0 // vpbroadcastw 0x70a9(%rip),%ymm8 # 33614 <_sk_srcover_rgba_8888_sse2_lowp+0xb98>
+ .byte 196,98,125,121,5,73,108,0,0 // vpbroadcastw 0x6c49(%rip),%ymm8 # 29af4 <_sk_srcover_rgba_8888_sse2_lowp+0x738>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -53645,7 +43933,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,78,112,0,0 // vpbroadcastw 0x704e(%rip),%ymm8 # 33616 <_sk_srcover_rgba_8888_sse2_lowp+0xb9a>
+ .byte 196,98,125,121,5,238,107,0,0 // vpbroadcastw 0x6bee(%rip),%ymm8 # 29af6 <_sk_srcover_rgba_8888_sse2_lowp+0x73a>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -53671,7 +43959,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,243,111,0,0 // vpbroadcastw 0x6ff3(%rip),%ymm8 # 33618 <_sk_srcover_rgba_8888_sse2_lowp+0xb9c>
+ .byte 196,98,125,121,5,147,107,0,0 // vpbroadcastw 0x6b93(%rip),%ymm8 # 29af8 <_sk_srcover_rgba_8888_sse2_lowp+0x73c>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -53690,7 +43978,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,180,111,0,0 // vpbroadcastw 0x6fb4(%rip),%ymm8 # 3361a <_sk_srcover_rgba_8888_sse2_lowp+0xb9e>
+ .byte 196,98,125,121,5,84,107,0,0 // vpbroadcastw 0x6b54(%rip),%ymm8 # 29afa <_sk_srcover_rgba_8888_sse2_lowp+0x73e>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -53726,7 +44014,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,42,111,0,0 // vpbroadcastw 0x6f2a(%rip),%ymm8 # 3361c <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
+ .byte 196,98,125,121,5,202,106,0,0 // vpbroadcastw 0x6aca(%rip),%ymm8 # 29afc <_sk_srcover_rgba_8888_sse2_lowp+0x740>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -53743,7 +44031,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,247,110,0,0 // vpbroadcastw 0x6ef7(%rip),%ymm9 # 3361e <_sk_srcover_rgba_8888_sse2_lowp+0xba2>
+ .byte 196,98,125,121,13,151,106,0,0 // vpbroadcastw 0x6a97(%rip),%ymm9 # 29afe <_sk_srcover_rgba_8888_sse2_lowp+0x742>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -53769,7 +44057,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,156,110,0,0 // vpbroadcastw 0x6e9c(%rip),%ymm8 # 33620 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 196,98,125,121,5,60,106,0,0 // vpbroadcastw 0x6a3c(%rip),%ymm8 # 29b00 <_sk_srcover_rgba_8888_sse2_lowp+0x744>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -53803,7 +44091,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,32,110,0,0 // vpbroadcastw 0x6e20(%rip),%ymm9 # 33622 <_sk_srcover_rgba_8888_sse2_lowp+0xba6>
+ .byte 196,98,125,121,13,192,105,0,0 // vpbroadcastw 0x69c0(%rip),%ymm9 # 29b02 <_sk_srcover_rgba_8888_sse2_lowp+0x746>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -53837,7 +44125,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,161,109,0,0 // vpbroadcastw 0x6da1(%rip),%ymm9 # 33624 <_sk_srcover_rgba_8888_sse2_lowp+0xba8>
+ .byte 196,98,125,121,13,65,105,0,0 // vpbroadcastw 0x6941(%rip),%ymm9 # 29b04 <_sk_srcover_rgba_8888_sse2_lowp+0x748>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -53871,10 +44159,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,34,109,0,0 // vpbroadcastw 0x6d22(%rip),%ymm9 # 33626 <_sk_srcover_rgba_8888_sse2_lowp+0xbaa>
+ .byte 196,98,125,121,13,194,104,0,0 // vpbroadcastw 0x68c2(%rip),%ymm9 # 29b06 <_sk_srcover_rgba_8888_sse2_lowp+0x74a>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,17,109,0,0 // vpbroadcastw 0x6d11(%rip),%ymm10 # 33628 <_sk_srcover_rgba_8888_sse2_lowp+0xbac>
+ .byte 196,98,125,121,21,177,104,0,0 // vpbroadcastw 0x68b1(%rip),%ymm10 # 29b08 <_sk_srcover_rgba_8888_sse2_lowp+0x74c>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -53907,10 +44195,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,150,108,0,0 // vpbroadcastw 0x6c96(%rip),%ymm9 # 3362a <_sk_srcover_rgba_8888_sse2_lowp+0xbae>
+ .byte 196,98,125,121,13,54,104,0,0 // vpbroadcastw 0x6836(%rip),%ymm9 # 29b0a <_sk_srcover_rgba_8888_sse2_lowp+0x74e>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,133,108,0,0 // vpbroadcastw 0x6c85(%rip),%ymm10 # 3362c <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
+ .byte 196,98,125,121,21,37,104,0,0 // vpbroadcastw 0x6825(%rip),%ymm10 # 29b0c <_sk_srcover_rgba_8888_sse2_lowp+0x750>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -53938,7 +44226,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,34,108,0,0 // vpbroadcastw 0x6c22(%rip),%ymm9 # 33630 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 196,98,125,121,13,194,103,0,0 // vpbroadcastw 0x67c2(%rip),%ymm9 # 29b10 <_sk_srcover_rgba_8888_sse2_lowp+0x754>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -53966,7 +44254,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,153,107,0,0 // vpbroadcastw 0x6b99(%rip),%ymm14 # 3362e <_sk_srcover_rgba_8888_sse2_lowp+0xbb2>
+ .byte 196,98,125,121,53,57,103,0,0 // vpbroadcastw 0x6739(%rip),%ymm14 # 29b0e <_sk_srcover_rgba_8888_sse2_lowp+0x752>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -54003,7 +44291,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,14,107,0,0 // vpbroadcastw 0x6b0e(%rip),%ymm9 # 33634 <_sk_srcover_rgba_8888_sse2_lowp+0xbb8>
+ .byte 196,98,125,121,13,174,102,0,0 // vpbroadcastw 0x66ae(%rip),%ymm9 # 29b14 <_sk_srcover_rgba_8888_sse2_lowp+0x758>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -54027,7 +44315,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,150,106,0,0 // vpbroadcastw 0x6a96(%rip),%ymm13 # 33632 <_sk_srcover_rgba_8888_sse2_lowp+0xbb6>
+ .byte 196,98,125,121,45,54,102,0,0 // vpbroadcastw 0x6636(%rip),%ymm13 # 29b12 <_sk_srcover_rgba_8888_sse2_lowp+0x756>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -54079,10 +44367,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2cc92 <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 235d2 <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2ce0c <_sk_load_8888_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2374c <_sk_load_8888_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -54092,10 +44380,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2cdb9 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 236f9 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2cdb9 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 236f9 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -54104,7 +44392,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2cdb9 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 236f9 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -54120,7 +44408,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2cdb9 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 236f9 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -54130,7 +44418,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2cdb9 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 236f9 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -54150,7 +44438,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,94,104,0,0 // vmovdqa 0x685e(%rip),%ymm8 # 33640 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 197,125,111,5,254,99,0,0 // vmovdqa 0x63fe(%rip),%ymm8 # 29b20 <_sk_srcover_rgba_8888_sse2_lowp+0x764>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -54161,7 +44449,7 @@ _sk_load_8888_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2ce0c <_sk_load_8888_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2374c <_sk_load_8888_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -54208,10 +44496,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2ce9a <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 237da <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d014 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 23954 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -54221,10 +44509,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2cfc1 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 23901 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2cfc1 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 23901 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -54233,7 +44521,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2cfc1 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 23901 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -54249,7 +44537,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2cfc1 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 23901 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -54259,7 +44547,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2cfc1 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 23901 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -54279,7 +44567,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,118,102,0,0 // vmovdqa 0x6676(%rip),%ymm8 # 33660 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
+ .byte 197,125,111,5,22,98,0,0 // vmovdqa 0x6216(%rip),%ymm8 # 29b40 <_sk_srcover_rgba_8888_sse2_lowp+0x784>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -54290,7 +44578,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2d014 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 23954 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -54351,20 +44639,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2d0d1 <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 23a11 <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2d180 <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 23ac0 <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2d17c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 23abc <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2d17c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 23abc <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2d17c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 23abc <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -54372,12 +44660,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2d17c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 23abc <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2d17c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 23abc <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -54434,10 +44722,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2d20e <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 23b4e <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d388 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 23cc8 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -54447,10 +44735,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2d335 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 23c75 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2d335 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 23c75 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -54459,7 +44747,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2d335 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 23c75 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -54475,7 +44763,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2d335 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 23c75 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -54485,7 +44773,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2d335 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 23c75 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -54505,7 +44793,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,34,99,0,0 // vmovdqa 0x6322(%rip),%ymm8 # 33680 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
+ .byte 197,125,111,5,194,94,0,0 // vmovdqa 0x5ec2(%rip),%ymm8 # 29b60 <_sk_srcover_rgba_8888_sse2_lowp+0x7a4>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -54516,7 +44804,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2d388 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 23cc8 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -54563,10 +44851,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2d416 <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 23d56 <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2d590 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 23ed0 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -54576,10 +44864,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2d53d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 23e7d <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2d53d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 23e7d <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -54588,7 +44876,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2d53d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 23e7d <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -54604,7 +44892,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2d53d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 23e7d <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -54614,7 +44902,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2d53d <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 23e7d <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -54634,7 +44922,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,58,97,0,0 // vmovdqa 0x613a(%rip),%ymm8 # 336a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 197,125,111,5,218,92,0,0 // vmovdqa 0x5cda(%rip),%ymm8 # 29b80 <_sk_srcover_rgba_8888_sse2_lowp+0x7c4>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -54645,7 +44933,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2d590 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 23ed0 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -54706,20 +44994,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2d64d <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 23f8d <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2d6fc <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2403c <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2d6f8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 24038 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2d6f8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 24038 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2d6f8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 24038 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -54727,12 +45015,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2d6f8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 24038 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2d6f8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 24038 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -54789,24 +45077,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2d777 <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 240b7 <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2d8e4 <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 24224 <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2d87f <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 241bf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2d87f <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 241bf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2d87f <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 241bf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -54816,7 +45104,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2d87f <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 241bf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -54828,7 +45116,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2d87f <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 241bf <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -54842,13 +45130,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,56,94,0,0 // vpbroadcastw 0x5e38(%rip),%ymm5 # 336c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 196,226,125,121,45,216,89,0,0 // vpbroadcastw 0x59d8(%rip),%ymm5 # 29ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x7e4>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,35,94,0,0 // vpbroadcastw 0x5e23(%rip),%ymm7 # 336c2 <_sk_srcover_rgba_8888_sse2_lowp+0xc46>
+ .byte 196,226,125,121,61,195,89,0,0 // vpbroadcastw 0x59c3(%rip),%ymm7 # 29ba2 <_sk_srcover_rgba_8888_sse2_lowp+0x7e6>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,24,94,0,0 // vpbroadcastw 0x5e18(%rip),%ymm7 # 336c4 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
+ .byte 196,226,125,121,61,184,89,0,0 // vpbroadcastw 0x59b8(%rip),%ymm7 # 29ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x7e8>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -54859,7 +45147,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,230,93,0,0 // vpbroadcastw 0x5de6(%rip),%ymm7 # 336c6 <_sk_srcover_rgba_8888_sse2_lowp+0xc4a>
+ .byte 196,226,125,121,61,134,89,0,0 // vpbroadcastw 0x5986(%rip),%ymm7 # 29ba6 <_sk_srcover_rgba_8888_sse2_lowp+0x7ea>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -54910,10 +45198,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,143,93,0,0 // vpbroadcastw 0x5d8f(%rip),%ymm8 # 336c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ .byte 196,98,125,121,5,47,89,0,0 // vpbroadcastw 0x592f(%rip),%ymm8 # 29ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x7ec>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,126,93,0,0 // vpbroadcastw 0x5d7e(%rip),%ymm9 # 336ca <_sk_srcover_rgba_8888_sse2_lowp+0xc4e>
+ .byte 196,98,125,121,13,30,89,0,0 // vpbroadcastw 0x591e(%rip),%ymm9 # 29baa <_sk_srcover_rgba_8888_sse2_lowp+0x7ee>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -54923,31 +45211,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2d98e <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 242ce <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2da3c <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2437c <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2da35 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 24375 <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2da35 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 24375 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2da35 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 24375 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2da35 <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 24375 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2da2f <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2436f <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -54970,7 +45258,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 2da51 <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 24391 <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -55006,38 +45294,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2dab4 <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 243f4 <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2db78 <_sk_load_a8_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 244b8 <_sk_load_a8_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2db63 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 244a3 <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2db63 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 244a3 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2db63 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 244a3 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2db63 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 244a3 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2db63 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 244a3 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -55097,38 +45385,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2dbf0 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 24530 <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2dcb4 <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 245f4 <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2dc9f <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 245df <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2dc9f <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 245df <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2dc9f <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 245df <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2dc9f <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 245df <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2dc9f <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 245df <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -55185,7 +45473,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,5,99,0,0 // vmovdqa 0x6305(%rip),%xmm9 # 34010 <_sk_srcover_rgba_8888_sse2_lowp+0x1594>
+ .byte 197,121,111,13,133,94,0,0 // vmovdqa 0x5e85(%rip),%xmm9 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -55193,28 +45481,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 2dd40 <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 24680 <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2ddc0 <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 24700 <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 2ddb9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 246f9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 2ddb9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 246f9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 2ddb9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 246f9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 2ddb9 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 246f9 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 2ddb3 <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 246f3 <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -55223,7 +45511,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 2ddc1 <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 24701 <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -55270,38 +45558,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2de38 <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 24778 <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2df04 <_sk_load_g8_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 24844 <_sk_load_g8_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2dee7 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 24827 <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2dee7 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 24827 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2dee7 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 24827 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2dee7 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 24827 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2dee7 <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 24827 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -55311,7 +45599,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,213,87,0,0 // vpbroadcastw 0x57d5(%rip),%ymm3 # 336cc <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 196,226,125,121,29,117,83,0,0 // vpbroadcastw 0x5375(%rip),%ymm3 # 29bac <_sk_srcover_rgba_8888_sse2_lowp+0x7f0>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -55325,7 +45613,7 @@ _sk_load_g8_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2df11 <_sk_load_g8_hsw_lowp+0x115>
+ .byte 123,255 // jnp 24851 <_sk_load_g8_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -55363,38 +45651,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2df7c <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 248bc <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2e048 <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 24988 <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2e02b <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2496b <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2e02b <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2496b <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2e02b <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2496b <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2e02b <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2496b <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2e02b <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2496b <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -55404,7 +45692,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,147,86,0,0 // vpbroadcastw 0x5693(%rip),%ymm7 # 336ce <_sk_srcover_rgba_8888_sse2_lowp+0xc52>
+ .byte 196,226,125,121,61,51,82,0,0 // vpbroadcastw 0x5233(%rip),%ymm7 # 29bae <_sk_srcover_rgba_8888_sse2_lowp+0x7f2>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -55418,7 +45706,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e055 <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 24995 <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -55450,13 +45738,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,162,86,0,0 // vmovss 0x56a2(%rip),%xmm9 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 196,98,57,169,13,105,86,0,0 // vfmadd213ss 0x5669(%rip),%xmm8,%xmm9 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 197,122,16,13,66,82,0,0 // vmovss 0x5242(%rip),%xmm9 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,57,169,13,9,82,0,0 // vfmadd213ss 0x5209(%rip),%xmm8,%xmm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,26,86,0,0 // vpbroadcastw 0x561a(%rip),%ymm9 # 336d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 196,98,125,121,13,186,81,0,0 // vpbroadcastw 0x51ba(%rip),%ymm9 # 29bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x7f4>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -55483,38 +45771,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2e12b <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 24a6b <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,20,1,0,0 // lea 0x114(%rip),%r9 # 2e228 <_sk_scale_u8_hsw_lowp+0x13a>
+ .byte 76,141,13,20,1,0,0 // lea 0x114(%rip),%r9 # 24b68 <_sk_scale_u8_hsw_lowp+0x13a>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2e1de <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 24b1e <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2e1de <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 24b1e <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2e1de <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 24b1e <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2e1de <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 24b1e <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2e1de <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 24b1e <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -55524,7 +45812,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,226,84,0,0 // vpbroadcastw 0x54e2(%rip),%ymm9 # 336d2 <_sk_srcover_rgba_8888_sse2_lowp+0xc56>
+ .byte 196,98,125,121,13,130,80,0,0 // vpbroadcastw 0x5082(%rip),%ymm9 # 29bb2 <_sk_srcover_rgba_8888_sse2_lowp+0x7f6>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -55577,12 +45865,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,194,84,0,0 // vmovss 0x54c2(%rip),%xmm9 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 196,98,57,169,13,137,84,0,0 // vfmadd213ss 0x5489(%rip),%xmm8,%xmm9 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 197,122,16,13,98,80,0,0 // vmovss 0x5062(%rip),%xmm9 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,57,169,13,41,80,0,0 // vfmadd213ss 0x5029(%rip),%xmm8,%xmm9 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,66,84,0,0 // vpbroadcastw 0x5442(%rip),%ymm9 # 336d4 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 196,98,125,121,13,226,79,0,0 // vpbroadcastw 0x4fe2(%rip),%ymm9 # 29bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x7f8>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -55619,38 +45907,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2e330 <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 24c70 <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,59,1,0,0 // lea 0x13b(%rip),%r9 # 2e454 <_sk_lerp_u8_hsw_lowp+0x161>
+ .byte 76,141,13,59,1,0,0 // lea 0x13b(%rip),%r9 # 24d94 <_sk_lerp_u8_hsw_lowp+0x161>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2e3e3 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 24d23 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2e3e3 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 24d23 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2e3e3 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 24d23 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2e3e3 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 24d23 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2e3e3 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 24d23 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -55659,7 +45947,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,229,82,0,0 // vpbroadcastw 0x52e5(%rip),%ymm9 # 336d6 <_sk_srcover_rgba_8888_sse2_lowp+0xc5a>
+ .byte 196,98,125,121,13,133,78,0,0 // vpbroadcastw 0x4e85(%rip),%ymm9 # 29bb6 <_sk_srcover_rgba_8888_sse2_lowp+0x7fa>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -55693,10 +45981,10 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,231 // jmpq *%rdi
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,37,255,255,255,29 // jmpq *0x1dffffff(%rip) # 1e02e464 <_sk_srcover_rgba_8888_sse2_lowp+0x1dffb9e8>
+ .byte 255,37,255,255,255,29 // jmpq *0x1dffffff(%rip) # 1e024da4 <_sk_srcover_rgba_8888_sse2_lowp+0x1dffb9e8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,8 // callq *0x8ffffff(%rip) # 902e46c <_sk_srcover_rgba_8888_sse2_lowp+0x8ffb9f0>
+ .byte 255,21,255,255,255,8 // callq *0x8ffffff(%rip) # 9024dac <_sk_srcover_rgba_8888_sse2_lowp+0x8ffb9f0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,80,255 // callq *-0x1(%rax)
@@ -55709,7 +45997,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e481 <_sk_lerp_u8_hsw_lowp+0x18e>
+ .byte 123,255 // jnp 24dc1 <_sk_lerp_u8_hsw_lowp+0x18e>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -55734,9 +46022,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 2e4ec <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 24e2c <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 2e7b0 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 250f0 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -55746,10 +46034,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 2e602 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 24f42 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 2e602 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 24f42 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -55758,7 +46046,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 2e602 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 24f42 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -55774,7 +46062,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 2e602 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 24f42 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -55784,7 +46072,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 2e602 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 24f42 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -55804,9 +46092,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,181,80,0,0 // vmovdqa 0x50b5(%rip),%ymm8 # 336e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 197,125,111,5,85,76,0,0 // vmovdqa 0x4c55(%rip),%ymm8 # 29bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x804>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,199,80,0,0 // vpbroadcastw 0x50c7(%rip),%ymm9 # 33700 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 196,98,125,121,13,103,76,0,0 // vpbroadcastw 0x4c67(%rip),%ymm9 # 29be0 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -55845,19 +46133,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 2e713 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2e7ec <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 25053 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2512c <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 2e7aa <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 250ea <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 2e7aa <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 250ea <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 2e7aa <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 250ea <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -55865,12 +46153,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 2e7aa <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 250ea <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 2e7aa <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 250ea <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -55918,7 +46206,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f02e7f0 <_sk_srcover_rgba_8888_sse2_lowp+0x3effbd74>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f025130 <_sk_srcover_rgba_8888_sse2_lowp+0x3effbd74>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -55936,7 +46224,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 2e811 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 25151 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55969,13 +46257,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2e8de <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2521e <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 2e8ac <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 251ec <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -55994,10 +46282,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2e875 <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 251b5 <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2e8d5 <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 25215 <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -56011,7 +46299,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2e867 <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 251a7 <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -56056,7 +46344,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,117,79,0,0 // movaps 0x4f75(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,29,245,74,0,0 // movaps 0x4af5(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -56067,7 +46355,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,97,79,0,0 // movaps 0x4f61(%rip),%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,5,225,74,0,0 // movaps 0x4ae1(%rip),%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -56078,10 +46366,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,192,77,0,0 // movss 0x4dc0(%rip),%xmm2 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 243,15,16,21,96,73,0,0 // movss 0x4960(%rip),%xmm2 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,127,77,0,0 // movss 0x4d7f(%rip),%xmm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 243,68,15,16,5,31,73,0,0 // movss 0x491f(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -56108,7 +46396,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,211,78,0,0 // movdqa 0x4ed3(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,83,74,0,0 // movdqa 0x4a53(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -56156,7 +46444,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,113,78,0,0 // movdqa 0x4e71(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,241,73,0,0 // movdqa 0x49f1(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -56188,7 +46476,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,21,78,0,0 // movdqa 0x4e15(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,111,29,149,73,0,0 // movdqa 0x4995(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -56220,7 +46508,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,149,77,0,0 // movdqa 0x4d95(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,21,73,0,0 // movdqa 0x4915(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -56249,7 +46537,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,32,77,0,0 // movdqa 0x4d20(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,160,72,0,0 // movdqa 0x48a0(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -56270,7 +46558,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,215,76,0,0 // movdqa 0x4cd7(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,87,72,0,0 // movdqa 0x4857(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -56291,7 +46579,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,142,76,0,0 // movdqa 0x4c8e(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,14,72,0,0 // movdqa 0x480e(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -56314,7 +46602,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,55,76,0,0 // movdqa 0x4c37(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,183,71,0,0 // movdqa 0x47b7(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -56339,7 +46627,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,221,75,0,0 // movdqa 0x4bdd(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,93,71,0,0 // movdqa 0x475d(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -56368,7 +46656,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,99,75,0,0 // movdqa 0x4b63(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,227,70,0,0 // movdqa 0x46e3(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -56395,7 +46683,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,252,74,0,0 // movdqa 0x4afc(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,124,70,0,0 // movdqa 0x467c(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -56414,7 +46702,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,187,74,0,0 // movdqa 0x4abb(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,59,70,0,0 // movdqa 0x463b(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -56457,7 +46745,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,0,74,0,0 // movdqa 0x4a00(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,128,69,0,0 // movdqa 0x4580(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -56477,7 +46765,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,186,73,0,0 // movdqa 0x49ba(%rip),%xmm10 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,21,58,69,0,0 // movdqa 0x453a(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -56509,7 +46797,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,56,73,0,0 // movdqa 0x4938(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,184,68,0,0 // movdqa 0x44b8(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -56552,7 +46840,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,127,72,0,0 // movdqa 0x487f(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,255,67,0,0 // movdqa 0x43ff(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -56596,7 +46884,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,194,71,0,0 // movdqa 0x47c2(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,66,67,0,0 // movdqa 0x4342(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -56640,10 +46928,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,5,71,0,0 // movdqa 0x4705(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,133,66,0,0 // movdqa 0x4285(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,98,79,0,0 // movdqa 0x4f62(%rip),%xmm10 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0x16b4>
+ .byte 102,68,15,111,21,210,73,0,0 // movdqa 0x49d2(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -56685,10 +46973,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,65,70,0,0 // movdqa 0x4641(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,193,65,0,0 // movdqa 0x41c1(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,158,78,0,0 // movdqa 0x4e9e(%rip),%xmm10 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0x16b4>
+ .byte 102,68,15,111,21,14,73,0,0 // movdqa 0x490e(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -56724,14 +47012,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,156,69,0,0 // movdqa 0x459c(%rip),%xmm11 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,29,28,65,0,0 // movdqa 0x411c(%rip),%xmm11 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,245,77,0,0 // movdqa 0x4df5(%rip),%xmm9 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0x16c4>
+ .byte 102,68,15,111,13,101,72,0,0 // movdqa 0x4865(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -56778,7 +47066,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,141,68,0,0 // movdqa 0x448d(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,13,64,0,0 // movdqa 0x400d(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -56817,7 +47105,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,240,67,0,0 // movdqa 0x43f0(%rip),%xmm11 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,29,112,63,0,0 // movdqa 0x3f70(%rip),%xmm11 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -56829,7 +47117,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,49,76,0,0 // movdqa 0x4c31(%rip),%xmm9 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0x16c4>
+ .byte 102,68,15,111,13,161,70,0,0 // movdqa 0x46a1(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -56875,7 +47163,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,211,66,0,0 // movdqa 0x42d3(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,83,62,0,0 // movdqa 0x3e53(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -56918,49 +47206,49 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2f6af <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 25fef <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,239,0,0,0 // lea 0xef(%rip),%r9 # 2f784 <_sk_load_8888_sse41_lowp+0x119>
+ .byte 76,141,13,239,0,0,0 // lea 0xef(%rip),%r9 # 260c4 <_sk_load_8888_sse41_lowp+0x119>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2f708 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 26048 <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2f708 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 26048 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 2f708 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 26048 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,112,73,0,0 // movdqa 0x4970(%rip),%xmm0 # 34080 <_sk_srcover_rgba_8888_sse2_lowp+0x1604>
+ .byte 102,15,111,5,176,68,0,0 // movdqa 0x44b0(%rip),%xmm0 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,144,65,0,0 // movdqa 0x4190(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,16,61,0,0 // movdqa 0x3d10(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,121,73,0,0 // movdqa 0x4979(%rip),%xmm10 # 340c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1644>
+ .byte 102,68,15,111,21,137,68,0,0 // movdqa 0x4489(%rip),%xmm10 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,230,73,0,0 // movdqa 0x49e6(%rip),%xmm10 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0x16d4>
+ .byte 102,68,15,111,21,118,68,0,0 // movdqa 0x4476(%rip),%xmm10 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -56976,7 +47264,7 @@ _sk_load_8888_sse41_lowp:
.byte 58,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2f791 <_sk_load_8888_sse41_lowp+0x126>
+ .byte 126,255 // jle 260d1 <_sk_load_8888_sse41_lowp+0x126>
.byte 255 // (bad)
.byte 255,117,255 // pushq -0x1(%rbp)
.byte 255 // (bad)
@@ -56998,49 +47286,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2f7e4 <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 26124 <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2f8bc <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 261fc <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2f83d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2617d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2f83d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2617d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 2f83d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2617d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,59,72,0,0 // movdqa 0x483b(%rip),%xmm4 # 34080 <_sk_srcover_rgba_8888_sse2_lowp+0x1604>
+ .byte 102,15,111,37,123,67,0,0 // movdqa 0x437b(%rip),%xmm4 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,91,64,0,0 // movdqa 0x405b(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,219,59,0,0 // movdqa 0x3bdb(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,68,72,0,0 // movdqa 0x4844(%rip),%xmm10 # 340c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1644>
+ .byte 102,68,15,111,21,84,67,0,0 // movdqa 0x4354(%rip),%xmm10 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,177,72,0,0 // movdqa 0x48b1(%rip),%xmm10 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0x16d4>
+ .byte 102,68,15,111,21,65,67,0,0 // movdqa 0x4341(%rip),%xmm10 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -57056,7 +47344,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2f8c9 <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 26209 <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -57093,20 +47381,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 2f95e <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 2629e <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2f9a4 <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 262e4 <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 2f99d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 262dd <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2f99d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 262dd <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 2f99d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 262dd <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -57150,49 +47438,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2fa04 <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 26344 <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2fadc <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2641c <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2fa5d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2639d <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2fa5d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2639d <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 2fa5d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2639d <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,27,70,0,0 // movdqa 0x461b(%rip),%xmm2 # 34080 <_sk_srcover_rgba_8888_sse2_lowp+0x1604>
+ .byte 102,15,111,21,91,65,0,0 // movdqa 0x415b(%rip),%xmm2 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,59,62,0,0 // movdqa 0x3e3b(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,187,57,0,0 // movdqa 0x39bb(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,36,70,0,0 // movdqa 0x4624(%rip),%xmm10 # 340c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1644>
+ .byte 102,68,15,111,21,52,65,0,0 // movdqa 0x4134(%rip),%xmm10 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,145,70,0,0 // movdqa 0x4691(%rip),%xmm10 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0x16d4>
+ .byte 102,68,15,111,21,33,65,0,0 // movdqa 0x4121(%rip),%xmm10 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -57208,7 +47496,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2fae9 <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 26429 <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -57230,49 +47518,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2fb3c <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 2647c <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2fc14 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 26554 <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2fb95 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 264d5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2fb95 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 264d5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 2fb95 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 264d5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,227,68,0,0 // movdqa 0x44e3(%rip),%xmm6 # 34080 <_sk_srcover_rgba_8888_sse2_lowp+0x1604>
+ .byte 102,15,111,53,35,64,0,0 // movdqa 0x4023(%rip),%xmm6 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,3,61,0,0 // movdqa 0x3d03(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,131,56,0,0 // movdqa 0x3883(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,236,68,0,0 // movdqa 0x44ec(%rip),%xmm10 # 340c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1644>
+ .byte 102,68,15,111,21,252,63,0,0 // movdqa 0x3ffc(%rip),%xmm10 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,89,69,0,0 // movdqa 0x4559(%rip),%xmm10 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0x16d4>
+ .byte 102,68,15,111,21,233,63,0,0 // movdqa 0x3fe9(%rip),%xmm10 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -57288,7 +47576,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2fc21 <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 26561 <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -57325,20 +47613,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 2fcb6 <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 265f6 <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2fcfc <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2663c <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 2fcf5 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 26635 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2fcf5 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 26635 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 2fcf5 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 26635 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -57382,23 +47670,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2fd54 <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 26694 <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2fe04 <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 26744 <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 2fd9e <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 266de <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 2fd9e <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 266de <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 2fd9e <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 266de <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -57407,11 +47695,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,177,67,0,0 // pand 0x43b1(%rip),%xmm7 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0x16e4>
+ .byte 102,15,219,61,65,62,0,0 // pand 0x3e41(%rip),%xmm7 # 2a530 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,176,67,0,0 // pand 0x43b0(%rip),%xmm5 # 34170 <_sk_srcover_rgba_8888_sse2_lowp+0x16f4>
- .byte 102,15,111,53,184,67,0,0 // movdqa 0x43b8(%rip),%xmm6 # 34180 <_sk_srcover_rgba_8888_sse2_lowp+0x1704>
+ .byte 102,15,219,45,64,62,0,0 // pand 0x3e40(%rip),%xmm5 # 2a540 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 102,15,111,53,72,62,0,0 // movdqa 0x3e48(%rip),%xmm6 # 2a550 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -57424,7 +47712,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,190,58,0,0 // movaps 0x3abe(%rip),%xmm7 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,61,62,54,0,0 // movaps 0x363e(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -57435,7 +47723,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2fe19 <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 26759 <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -57452,10 +47740,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,76,67,0,0 // pand 0x434c(%rip),%xmm8 # 34190 <_sk_srcover_rgba_8888_sse2_lowp+0x1714>
+ .byte 102,68,15,219,5,220,61,0,0 // pand 0x3ddc(%rip),%xmm8 # 2a560 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,72,67,0,0 // pand 0x4348(%rip),%xmm9 # 341a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1724>
+ .byte 102,68,15,219,13,216,61,0,0 // pand 0x3dd8(%rip),%xmm9 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -57464,19 +47752,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 2fe94 <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 267d4 <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 2fed4 <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 26814 <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 2fece <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 2680e <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 2fece <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 2680e <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 2fece <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 2680e <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -57496,7 +47784,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 2fee5 <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 26825 <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -57518,18 +47806,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ff29 <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 26869 <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ffa4 <_sk_load_a8_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 268e4 <_sk_load_a8_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 2ff8d <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 268cd <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 2ff8d <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 268cd <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -57537,7 +47825,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 2ff8d <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 268cd <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -57548,13 +47836,13 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,43,57,0,0 // pand 0x392b(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,219,29,171,52,0,0 // pand 0x34ab(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 2ffa5 <_sk_load_a8_sse41_lowp+0xb5>
+ .byte 122,255 // jp 268e5 <_sk_load_a8_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -57585,18 +47873,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2fff9 <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 26939 <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 30074 <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 269b4 <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 3005d <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2699d <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 3005d <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2699d <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -57604,7 +47892,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 3005d <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2699d <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -57615,13 +47903,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,91,56,0,0 // pand 0x385b(%rip),%xmm7 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,219,61,219,51,0,0 // pand 0x33db(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 30075 <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 269b5 <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -57652,28 +47940,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 300c4 <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 26a04 <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 30134 <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 26a74 <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 3012d <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 26a6d <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,61,63,0,0 // pshufb 0x3f3d(%rip),%xmm8 # 34010 <_sk_srcover_rgba_8888_sse2_lowp+0x1594>
+ .byte 102,68,15,56,0,5,189,58,0,0 // pshufb 0x3abd(%rip),%xmm8 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 3012d <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 26a6d <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,221,55,0,0 // pshufb 0x37dd(%rip),%xmm8 # 338d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
+ .byte 102,68,15,56,0,5,93,51,0,0 // pshufb 0x335d(%rip),%xmm8 # 29d90 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 3012d <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 26a6d <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,185,55,0,0 // pshufb 0x37b9(%rip),%xmm8 # 338e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 102,68,15,56,0,5,57,51,0,0 // pshufb 0x3339(%rip),%xmm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -57709,18 +47997,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 30189 <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 26ac9 <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 30208 <_sk_load_g8_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 26b48 <_sk_load_g8_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 301ed <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 26b2d <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 301ed <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 26b2d <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -57728,7 +48016,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 301ed <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 26b2d <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -57739,13 +48027,13 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,203,54,0,0 // pand 0x36cb(%rip),%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,219,5,75,50,0,0 // pand 0x324b(%rip),%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,194,54,0,0 // movaps 0x36c2(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,29,66,50,0,0 // movaps 0x3242(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 30209 <_sk_load_g8_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 26b49 <_sk_load_g8_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -57774,18 +48062,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3025d <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 26b9d <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 302dc <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 26c1c <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 302c1 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 26c01 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 302c1 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 26c01 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -57793,7 +48081,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 302c1 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 26c01 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -57804,13 +48092,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,247,53,0,0 // pand 0x35f7(%rip),%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,219,37,119,49,0,0 // pand 0x3177(%rip),%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,238,53,0,0 // movaps 0x35ee(%rip),%xmm7 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,61,110,49,0,0 // movaps 0x316e(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 302dd <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 26c1d <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -57833,14 +48121,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,44,52,0,0 // mulss 0x342c(%rip),%xmm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 243,68,15,88,5,243,51,0,0 // addss 0x33f3(%rip),%xmm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 243,68,15,89,5,204,47,0,0 // mulss 0x2fcc(%rip),%xmm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 243,68,15,88,5,147,47,0,0 // addss 0x2f93(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,139,53,0,0 // movdqa 0x358b(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,11,49,0,0 // movdqa 0x310b(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -57867,18 +48155,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 303ab <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 26ceb <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,222,0,0,0 // lea 0xde(%rip),%r9 # 30474 <_sk_scale_u8_sse41_lowp+0x104>
+ .byte 76,141,13,222,0,0,0 // lea 0xde(%rip),%r9 # 26db4 <_sk_scale_u8_sse41_lowp+0x104>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 3041a <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 26d5a <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 3041a <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 26d5a <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -57886,7 +48174,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 3041a <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 26d5a <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -57897,9 +48185,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,157,52,0,0 // pand 0x349d(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,219,5,29,48,0,0 // pand 0x301d(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,143,52,0,0 // movdqa 0x348f(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,15,48,0,0 // movdqa 0x300f(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -57925,7 +48213,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 30489 <_sk_scale_u8_sse41_lowp+0x119>
+ .byte 123,255 // jnp 26dc9 <_sk_scale_u8_sse41_lowp+0x119>
.byte 255 // (bad)
.byte 255,106,255 // ljmp *-0x1(%rdx)
.byte 255 // (bad)
@@ -57937,13 +48225,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,148,50,0,0 // mulss 0x3294(%rip),%xmm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 243,68,15,88,5,91,50,0,0 // addss 0x325b(%rip),%xmm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 243,68,15,89,5,52,46,0,0 // mulss 0x2e34(%rip),%xmm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 243,68,15,88,5,251,45,0,0 // addss 0x2dfb(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,248,51,0,0 // movdqa 0x33f8(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,120,47,0,0 // movdqa 0x2f78(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -57983,18 +48271,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 3057f <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 26ebf <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 30688 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 26fc8 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 305ee <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 26f2e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 305ee <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 26f2e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -58002,7 +48290,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 305ee <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 26f2e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -58013,8 +48301,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,201,50,0,0 // pand 0x32c9(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,68,15,111,21,192,50,0,0 // movdqa 0x32c0(%rip),%xmm10 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,219,5,73,46,0,0 // pand 0x2e49(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,21,64,46,0,0 // movdqa 0x2e40(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -58044,7 +48332,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 30688 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 26fc8 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -58078,48 +48366,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 306ef <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 2702f <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 308ec <_sk_srcover_rgba_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 2722c <_sk_srcover_rgba_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 30748 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 27088 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 30748 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 27088 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 30748 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 27088 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,48,57,0,0 // movdqa 0x3930(%rip),%xmm4 # 34080 <_sk_srcover_rgba_8888_sse2_lowp+0x1604>
+ .byte 102,15,111,37,112,52,0,0 // movdqa 0x3470(%rip),%xmm4 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,80,49,0,0 // movdqa 0x3150(%rip),%xmm12 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,37,208,44,0,0 // movdqa 0x2cd0(%rip),%xmm12 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,57,57,0,0 // movdqa 0x3939(%rip),%xmm9 # 340c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1644>
+ .byte 102,68,15,111,13,73,52,0,0 // movdqa 0x3449(%rip),%xmm9 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,166,57,0,0 // movdqa 0x39a6(%rip),%xmm9 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0x16d4>
+ .byte 102,68,15,111,13,54,52,0,0 // movdqa 0x3436(%rip),%xmm9 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -58161,19 +48449,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 30892 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 30908 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 271d2 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 27248 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 308d1 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 27211 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 308d1 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 27211 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 308d1 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 27211 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -58238,13 +48526,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 309da <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2731a <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 309a8 <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 272e8 <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -58263,10 +48551,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 30971 <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 272b1 <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 309d1 <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 27311 <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -58280,7 +48568,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 30963 <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 272a3 <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -58325,7 +48613,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,121,46,0,0 // movaps 0x2e79(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,29,249,41,0,0 // movaps 0x29f9(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -58336,7 +48624,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,101,46,0,0 // movaps 0x2e65(%rip),%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,5,229,41,0,0 // movaps 0x29e5(%rip),%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -58347,10 +48635,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,196,44,0,0 // movss 0x2cc4(%rip),%xmm2 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ .byte 243,15,16,21,100,40,0,0 // movss 0x2864(%rip),%xmm2 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,131,44,0,0 // movss 0x2c83(%rip),%xmm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 243,68,15,16,5,35,40,0,0 // movss 0x2823(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -58377,7 +48665,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,215,45,0,0 // movdqa 0x2dd7(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,87,41,0,0 // movdqa 0x2957(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -58425,7 +48713,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,117,45,0,0 // movdqa 0x2d75(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,245,40,0,0 // movdqa 0x28f5(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -58457,7 +48745,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,25,45,0,0 // movdqa 0x2d19(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,111,29,153,40,0,0 // movdqa 0x2899(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -58489,7 +48777,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,153,44,0,0 // movdqa 0x2c99(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,25,40,0,0 // movdqa 0x2819(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -58518,7 +48806,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,36,44,0,0 // movdqa 0x2c24(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,164,39,0,0 // movdqa 0x27a4(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -58539,7 +48827,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,219,43,0,0 // movdqa 0x2bdb(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,91,39,0,0 // movdqa 0x275b(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -58560,7 +48848,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,146,43,0,0 // movdqa 0x2b92(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,18,39,0,0 // movdqa 0x2712(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -58583,7 +48871,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,59,43,0,0 // movdqa 0x2b3b(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,187,38,0,0 // movdqa 0x26bb(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -58608,7 +48896,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,225,42,0,0 // movdqa 0x2ae1(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,97,38,0,0 // movdqa 0x2661(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -58637,7 +48925,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,103,42,0,0 // movdqa 0x2a67(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,231,37,0,0 // movdqa 0x25e7(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -58664,7 +48952,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,0,42,0,0 // movdqa 0x2a00(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,128,37,0,0 // movdqa 0x2580(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -58683,7 +48971,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,191,41,0,0 // movdqa 0x29bf(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,63,37,0,0 // movdqa 0x253f(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -58728,12 +49016,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,235,49,0,0 // movdqa 0x31eb(%rip),%xmm10 # 341b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1734>
+ .byte 102,68,15,111,21,123,44,0,0 // movdqa 0x2c7b(%rip),%xmm10 # 2a580 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,223,40,0,0 // movdqa 0x28df(%rip),%xmm11 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,29,95,36,0,0 // movdqa 0x245f(%rip),%xmm11 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -58772,7 +49060,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,63,40,0,0 // movdqa 0x283f(%rip),%xmm10 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,21,191,35,0,0 // movdqa 0x23bf(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -58804,7 +49092,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,189,39,0,0 // movdqa 0x27bd(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,61,35,0,0 // movdqa 0x233d(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -58846,7 +49134,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,136,47,0,0 // movdqa 0x2f88(%rip),%xmm9 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0x16c4>
+ .byte 102,68,15,111,13,248,41,0,0 // movdqa 0x29f8(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -58855,7 +49143,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,215,38,0,0 // movdqa 0x26d7(%rip),%xmm10 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,21,87,34,0,0 // movdqa 0x2257(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -58911,7 +49199,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,95,46,0,0 // movdqa 0x2e5f(%rip),%xmm9 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0x16c4>
+ .byte 102,68,15,111,13,207,40,0,0 // movdqa 0x28cf(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -58920,7 +49208,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,174,37,0,0 // movdqa 0x25ae(%rip),%xmm10 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,21,46,33,0,0 // movdqa 0x212e(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -58976,7 +49264,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,54,45,0,0 // movdqa 0x2d36(%rip),%xmm9 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0x16c4>
+ .byte 102,68,15,111,13,166,39,0,0 // movdqa 0x27a6(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -58985,10 +49273,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,133,36,0,0 // movdqa 0x2485(%rip),%xmm10 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,21,5,32,0,0 // movdqa 0x2005(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,226,44,0,0 // movdqa 0x2ce2(%rip),%xmm11 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0x16b4>
+ .byte 102,68,15,111,29,82,39,0,0 // movdqa 0x2752(%rip),%xmm11 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -59043,10 +49331,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,130,35,0,0 // movdqa 0x2382(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,2,31,0,0 // movdqa 0x1f02(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,223,43,0,0 // movdqa 0x2bdf(%rip),%xmm10 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0x16b4>
+ .byte 102,68,15,111,21,79,38,0,0 // movdqa 0x264f(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -59082,7 +49370,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,222,34,0,0 // movdqa 0x22de(%rip),%xmm2 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,111,21,94,30,0,0 // movdqa 0x1e5e(%rip),%xmm2 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -59095,7 +49383,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,26,43,0,0 // movdqa 0x2b1a(%rip),%xmm2 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0x16c4>
+ .byte 102,15,111,21,138,37,0,0 // movdqa 0x258a(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -59114,7 +49402,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,61,34,0,0 // paddw 0x223d(%rip),%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,253,5,189,29,0,0 // paddw 0x1dbd(%rip),%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -59137,7 +49425,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,200,33,0,0 // paddw 0x21c8(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,253,13,72,29,0,0 // paddw 0x1d48(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -59159,7 +49447,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,88,33,0,0 // movdqa 0x2158(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,216,28,0,0 // movdqa 0x1cd8(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -59187,7 +49475,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,233,32,0,0 // movdqa 0x20e9(%rip),%xmm6 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,111,53,105,28,0,0 // movdqa 0x1c69(%rip),%xmm6 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -59209,7 +49497,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,253,40,0,0 // movdqa 0x28fd(%rip),%xmm1 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0x16c4>
+ .byte 102,15,111,13,109,35,0,0 // movdqa 0x236d(%rip),%xmm1 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -59236,7 +49524,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,124,40,0,0 // movdqa 0x287c(%rip),%xmm7 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0x16c4>
+ .byte 102,15,111,61,236,34,0,0 // movdqa 0x22ec(%rip),%xmm7 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -59296,27 +49584,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 319da <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 2831a <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,24,1,0,0 // lea 0x118(%rip),%r9 # 31ad8 <_sk_load_8888_sse2_lowp+0x142>
+ .byte 76,141,13,24,1,0,0 // lea 0x118(%rip),%r9 # 28418 <_sk_load_8888_sse2_lowp+0x142>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 31a40 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 28380 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 31a40 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 28380 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 31a40 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 28380 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -59333,7 +49621,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,86,30,0,0 // movdqa 0x1e56(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,214,25,0,0 // movdqa 0x19d6(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -59389,27 +49677,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 31b38 <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 28478 <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 31c34 <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 28574 <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 31b9e <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 284de <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 31b9e <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 284de <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 31b9e <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 284de <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -59426,7 +49714,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,248,28,0,0 // movdqa 0x1cf8(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,120,24,0,0 // movdqa 0x1878(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -59494,21 +49782,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 31cd3 <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 28613 <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 31d24 <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 28664 <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 31d1e <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 2865e <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 31d1e <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 2865e <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 31d1e <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 2865e <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -59553,27 +49841,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 31d84 <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 286c4 <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 31e80 <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 287c0 <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 31dea <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 2872a <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 31dea <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 2872a <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 31dea <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 2872a <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -59590,7 +49878,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,172,26,0,0 // movdqa 0x1aac(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,44,22,0,0 // movdqa 0x162c(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -59643,27 +49931,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 31ee0 <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 28820 <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 31fdc <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 2891c <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 31f46 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 28886 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 31f46 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 28886 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 31f46 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 28886 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -59680,7 +49968,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,80,25,0,0 // movdqa 0x1950(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,208,20,0,0 // movdqa 0x14d0(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -59748,21 +50036,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 3207b <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 289bb <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 320cc <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 28a0c <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 320c6 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 28a06 <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 320c6 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 28a06 <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 320c6 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 28a06 <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -59807,23 +50095,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 32124 <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 28a64 <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 321cc <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 28b0c <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 32166 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 28aa6 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 32166 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 28aa6 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 32166 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 28aa6 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -59831,11 +50119,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,233,31,0,0 // pand 0x1fe9(%rip),%xmm7 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0x16e4>
+ .byte 102,15,219,61,121,26,0,0 // pand 0x1a79(%rip),%xmm7 # 2a530 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,232,31,0,0 // pand 0x1fe8(%rip),%xmm5 # 34170 <_sk_srcover_rgba_8888_sse2_lowp+0x16f4>
- .byte 102,15,111,53,240,31,0,0 // movdqa 0x1ff0(%rip),%xmm6 # 34180 <_sk_srcover_rgba_8888_sse2_lowp+0x1704>
+ .byte 102,15,219,45,120,26,0,0 // pand 0x1a78(%rip),%xmm5 # 2a540 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 102,15,111,53,128,26,0,0 // movdqa 0x1a80(%rip),%xmm6 # 2a550 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -59848,7 +50136,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,246,22,0,0 // movaps 0x16f6(%rip),%xmm7 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,61,118,18,0,0 // movaps 0x1276(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -59872,10 +50160,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,132,31,0,0 // pand 0x1f84(%rip),%xmm8 # 34190 <_sk_srcover_rgba_8888_sse2_lowp+0x1714>
+ .byte 102,68,15,219,5,20,26,0,0 // pand 0x1a14(%rip),%xmm8 # 2a560 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,128,31,0,0 // pand 0x1f80(%rip),%xmm9 # 341a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1724>
+ .byte 102,68,15,219,13,16,26,0,0 // pand 0x1a10(%rip),%xmm9 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -59884,21 +50172,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 3225e <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 28b9e <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 322a8 <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 28be8 <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 322a4 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 28be4 <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 322a4 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 28be4 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 322a4 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 28be4 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -59942,19 +50230,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 322fd <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 28c3d <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 32374 <_sk_load_a8_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 28cb4 <_sk_load_a8_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 3235e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 28c9e <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 3235e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 28c9e <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -59962,7 +50250,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 3235e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 28c9e <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -59973,14 +50261,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,90,21,0,0 // pand 0x155a(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,219,29,218,16,0,0 // pand 0x10da(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 32375 <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 126,255 // jle 28cb5 <_sk_load_a8_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -60010,19 +50298,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 323c9 <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 28d09 <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 32440 <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 28d80 <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 3242a <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 28d6a <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 3242a <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 28d6a <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -60030,7 +50318,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 3242a <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 28d6a <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -60041,14 +50329,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,142,20,0,0 // pand 0x148e(%rip),%xmm7 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,219,61,14,16,0,0 // pand 0x100e(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 32441 <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 28d81 <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -60078,42 +50366,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 32490 <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 28dd0 <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 32510 <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 28e50 <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 3250b <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,39,20,0,0 // movdqa 0x1427(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 235,123 // jmp 28e4b <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,167,15,0,0 // movdqa 0xfa7(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 3250b <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 28e4b <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,2,20,0,0 // movdqa 0x1402(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,130,15,0,0 // movdqa 0xf82(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 3250b <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 28e4b <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,197,19,0,0 // movdqa 0x13c5(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,5,69,15,0,0 // movdqa 0xf45(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 32511 <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 28e51 <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -60144,19 +50432,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 32565 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 28ea5 <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 325e4 <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 28f24 <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 325c6 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 28f06 <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 325c6 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 28f06 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -60164,7 +50452,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 325c6 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 28f06 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -60175,14 +50463,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,242,18,0,0 // pand 0x12f2(%rip),%xmm0 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,219,5,114,14,0,0 // pand 0xe72(%rip),%xmm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,233,18,0,0 // movaps 0x12e9(%rip),%xmm3 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,29,105,14,0,0 // movaps 0xe69(%rip),%xmm3 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 325e5 <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 28f25 <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -60210,19 +50498,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 32639 <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 28f79 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 326b8 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 28ff8 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 3269a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 28fda <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 3269a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 28fda <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -60230,7 +50518,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 3269a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 28fda <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -60241,14 +50529,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,30,18,0,0 // pand 0x121e(%rip),%xmm4 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,15,219,37,158,13,0,0 // pand 0xd9e(%rip),%xmm4 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,21,18,0,0 // movaps 0x1215(%rip),%xmm7 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,61,149,13,0,0 // movaps 0xd95(%rip),%xmm7 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 326b9 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 28ff9 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -60270,14 +50558,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,80,16,0,0 // mulss 0x1050(%rip),%xmm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 243,68,15,88,5,23,16,0,0 // addss 0x1017(%rip),%xmm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 243,68,15,89,5,240,11,0,0 // mulss 0xbf0(%rip),%xmm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 243,68,15,88,5,183,11,0,0 // addss 0xbb7(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,175,17,0,0 // movdqa 0x11af(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,47,13,0,0 // movdqa 0xd2f(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -60304,19 +50592,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 32787 <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 290c7 <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 3284c <_sk_scale_u8_sse2_lowp+0x100>
+ .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 2918c <_sk_scale_u8_sse2_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 327f4 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 29134 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 327f4 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 29134 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -60324,7 +50612,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 327f4 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 29134 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -60335,9 +50623,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,195,16,0,0 // pand 0x10c3(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,219,5,67,12,0,0 // pand 0xc43(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,181,16,0,0 // movdqa 0x10b5(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,53,12,0,0 // movdqa 0xc35(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -60373,13 +50661,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,188,14,0,0 // mulss 0xebc(%rip),%xmm8 # 33734 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- .byte 243,68,15,88,5,131,14,0,0 // addss 0xe83(%rip),%xmm8 # 33704 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ .byte 243,68,15,89,5,92,10,0,0 // mulss 0xa5c(%rip),%xmm8 # 29c14 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 243,68,15,88,5,35,10,0,0 // addss 0xa23(%rip),%xmm8 # 29be4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,32,16,0,0 // movdqa 0x1020(%rip),%xmm9 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,13,160,11,0,0 // movdqa 0xba0(%rip),%xmm9 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -60419,19 +50707,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 32957 <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 29297 <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 32a60 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 293a0 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 329c4 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 29304 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 329c4 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 29304 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -60439,7 +50727,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 329c4 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 29304 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -60450,8 +50738,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,243,14,0,0 // pand 0xef3(%rip),%xmm8 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
- .byte 102,68,15,111,21,234,14,0,0 // movdqa 0xeea(%rip),%xmm10 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,219,5,115,10,0,0 // pand 0xa73(%rip),%xmm8 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 102,68,15,111,21,106,10,0,0 // movdqa 0xa6a(%rip),%xmm10 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -60481,9 +50769,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 32a60 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 293a0 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5032a68 <_sk_srcover_rgba_8888_sse2_lowp+0x4ffffec>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 50293a8 <_sk_srcover_rgba_8888_sse2_lowp+0x4ffffec>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -60511,26 +50799,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 32ac7 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 29407 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 29630 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 32b2d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 2946d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 32b2d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 2946d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 32b2d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 2946d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -60547,7 +50835,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,105,13,0,0 // movdqa 0xd69(%rip),%xmm12 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 102,68,15,111,37,233,8,0,0 // movdqa 0x8e9(%rip),%xmm12 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -60605,20 +50893,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 32c8f <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 32d0c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 295cf <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 2964c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 32cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 29618 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 32cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 29618 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 32cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 29618 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -60651,7 +50939,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 32d0d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 2964d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -60717,16 +51005,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032da8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00032c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0296e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00032c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032db0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000334>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120296f0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000334>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032db8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00033c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0296f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00033c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032dc0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000344>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029700 <_sk_srcover_rgba_8888_sse2_lowp+0x3000344>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -60769,16 +51057,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032e08 <_sk_srcover_rgba_8888_sse2_lowp+0xa00038c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029748 <_sk_srcover_rgba_8888_sse2_lowp+0xa00038c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032e10 <_sk_srcover_rgba_8888_sse2_lowp+0x12000394>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029750 <_sk_srcover_rgba_8888_sse2_lowp+0x12000394>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032e18 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00039c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029758 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00039c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032e20 <_sk_srcover_rgba_8888_sse2_lowp+0x30003a4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029760 <_sk_srcover_rgba_8888_sse2_lowp+0x30003a4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -60821,16 +51109,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032e68 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003ec>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0297a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003ec>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032e70 <_sk_srcover_rgba_8888_sse2_lowp+0x120003f4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120297b0 <_sk_srcover_rgba_8888_sse2_lowp+0x120003f4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032e78 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003fc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0297b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003fc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032e80 <_sk_srcover_rgba_8888_sse2_lowp+0x3000404>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30297c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000404>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -60873,16 +51161,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032ec8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00044c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029808 <_sk_srcover_rgba_8888_sse2_lowp+0xa00044c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032ed0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000454>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029810 <_sk_srcover_rgba_8888_sse2_lowp+0x12000454>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032ed8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00045c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029818 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00045c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032ee0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000464>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029820 <_sk_srcover_rgba_8888_sse2_lowp+0x3000464>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -60925,16 +51213,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032f28 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004ac>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029868 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004ac>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032f30 <_sk_srcover_rgba_8888_sse2_lowp+0x120004b4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029870 <_sk_srcover_rgba_8888_sse2_lowp+0x120004b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032f38 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004bc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029878 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032f40 <_sk_srcover_rgba_8888_sse2_lowp+0x30004c4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029880 <_sk_srcover_rgba_8888_sse2_lowp+0x30004c4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -60977,16 +51265,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032f88 <_sk_srcover_rgba_8888_sse2_lowp+0xa00050c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0298c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00050c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032f90 <_sk_srcover_rgba_8888_sse2_lowp+0x12000514>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120298d0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000514>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032f98 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00051c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0298d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00051c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000524>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30298e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000524>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -61029,16 +51317,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032fe8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00056c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029928 <_sk_srcover_rgba_8888_sse2_lowp+0xa00056c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032ff0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000574>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029930 <_sk_srcover_rgba_8888_sse2_lowp+0x12000574>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032ff8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00057c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029938 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00057c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3033000 <_sk_srcover_rgba_8888_sse2_lowp+0x3000584>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3029940 <_sk_srcover_rgba_8888_sse2_lowp+0x3000584>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -61081,16 +51369,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a033048 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005cc>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029988 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005cc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12033050 <_sk_srcover_rgba_8888_sse2_lowp+0x120005d4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12029990 <_sk_srcover_rgba_8888_sse2_lowp+0x120005d4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a033058 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005dc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a029998 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005dc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3033060 <_sk_srcover_rgba_8888_sse2_lowp+0x30005e4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30299a0 <_sk_srcover_rgba_8888_sse2_lowp+0x30005e4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -61257,663 +51545,6 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 3,3 // add (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,0,0 // sldt (%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 2,1 // add (%rcx),%al
- .byte 0,3 // add %al,(%rbx)
- .byte 6 // (bad)
- .byte 5,4,7,10,9 // add $0x90a0704,%eax
- .byte 8,11 // or %cl,(%rbx)
- .byte 14 // (bad)
- .byte 13,12,15,2,1 // or $0x1020f0c,%eax
- .byte 0,3 // add %al,(%rbx)
- .byte 6 // (bad)
- .byte 5,4,7,10,9 // add $0x90a0704,%eax
- .byte 8,11 // or %cl,(%rbx)
- .byte 14 // (bad)
- .byte 13,12,15,2,1 // or $0x1020f0c,%eax
- .byte 0,3 // add %al,(%rbx)
- .byte 6 // (bad)
- .byte 5,4,7,10,9 // add $0x90a0704,%eax
- .byte 8,11 // or %cl,(%rbx)
- .byte 14 // (bad)
- .byte 13,12,15,2,1 // or $0x1020f0c,%eax
- .byte 0,3 // add %al,(%rbx)
- .byte 6 // (bad)
- .byte 5,4,7,10,9 // add $0x90a0704,%eax
- .byte 8,11 // or %cl,(%rbx)
- .byte 14 // (bad)
- .byte 13,12,15,2,1 // or $0x1020f0c,%eax
- .byte 0,3 // add %al,(%rbx)
- .byte 6 // (bad)
- .byte 5,4,7,10,9 // add $0x90a0704,%eax
- .byte 8,11 // or %cl,(%rbx)
- .byte 14 // (bad)
- .byte 13,12,15,2,1 // or $0x1020f0c,%eax
- .byte 0,3 // add %al,(%rbx)
- .byte 6 // (bad)
- .byte 5,4,7,10,9 // add $0x90a0704,%eax
- .byte 8,11 // or %cl,(%rbx)
- .byte 14 // (bad)
- .byte 13,12,15,2,1 // or $0x1020f0c,%eax
- .byte 0,3 // add %al,(%rbx)
- .byte 6 // (bad)
- .byte 5,4,7,10,9 // add $0x90a0704,%eax
- .byte 8,11 // or %cl,(%rbx)
- .byte 14 // (bad)
- .byte 13,12,15,2,1 // or $0x1020f0c,%eax
- .byte 0,3 // add %al,(%rbx)
- .byte 6 // (bad)
- .byte 5,4,7,10,9 // add $0x90a0704,%eax
- .byte 8,11 // or %cl,(%rbx)
- .byte 14 // (bad)
- .byte 13,12,15,0,1 // or $0x1000f0c,%eax
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 12,13 // or $0xd,%al
- .byte 14 // (bad)
- .byte 15,16,17 // movups (%rcx),%xmm2
- .byte 20,21 // adc $0x15,%al
- .byte 24,25 // sbb %bl,(%rcx)
- .byte 28,29 // sbb $0x1d,%al
- .byte 24,25 // sbb %bl,(%rcx)
- .byte 28,29 // sbb $0x1d,%al
- .byte 28,29 // sbb $0x1d,%al
- .byte 30 // (bad)
- .byte 31 // (bad)
- .byte 3,255 // add %edi,%edi
- .byte 7 // (bad)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 255,23 // callq *(%rdi)
- .byte 255,27 // lcall *(%rbx)
- .byte 255,31 // lcall *(%rdi)
- .byte 255,27 // lcall *(%rbx)
- .byte 255,31 // lcall *(%rdi)
- .byte 255,31 // lcall *(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,3 // incl (%rbx)
- .byte 3,3 // add (%rbx),%eax
- .byte 3,7 // add (%rdi),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,255 // (bad)
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,4,4 // add %al,(%rsp,%rax,1)
- .byte 4,4 // add $0x4,%al
- .byte 8,8 // or %cl,(%rax)
- .byte 8,8 // or %cl,(%rax)
- .byte 12,12 // or $0xc,%al
- .byte 12,12 // or $0xc,%al
- .byte 16,16 // adc %dl,(%rax)
- .byte 16,16 // adc %dl,(%rax)
- .byte 20,20 // adc $0x14,%al
- .byte 20,20 // adc $0x14,%al
- .byte 24,24 // sbb %bl,(%rax)
- .byte 24,24 // sbb %bl,(%rax)
- .byte 28,28 // sbb $0x1c,%al
- .byte 28,28 // sbb $0x1c,%al
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 4,4 // add $0x4,%al
- .byte 4,4 // add $0x4,%al
- .byte 8,8 // or %cl,(%rax)
- .byte 8,8 // or %cl,(%rax)
- .byte 12,12 // or $0xc,%al
- .byte 12,12 // or $0xc,%al
- .byte 16,16 // adc %dl,(%rax)
- .byte 16,16 // adc %dl,(%rax)
- .byte 20,20 // adc $0x14,%al
- .byte 20,20 // adc $0x14,%al
- .byte 24,24 // sbb %bl,(%rax)
- .byte 24,24 // sbb %bl,(%rax)
- .byte 28,28 // sbb $0x1c,%al
- .byte 28,28 // sbb $0x1c,%al
- .byte 3,3 // add (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 3,3 // add (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 3,3 // add (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,255 // (bad)
- .byte 0,127,0 // add %bh,0x0(%rdi)
- .byte 129,128,0,0,0,0,0,0,0,0 // addl $0x0,0x0(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 3,3 // add (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,3,3 // lsl (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,255 // (bad)
- .byte 0,127,0 // add %bh,0x0(%rdi)
- .byte 129,128,0,0,0,0,0,0,0,0 // addl $0x0,0x0(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
@@ -62014,7 +51645,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 336cb <.const+0x98b>
+ .byte 224,255 // loopne 29bab <.const+0x52b>
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
@@ -62058,14 +51689,14 @@ BALIGN4
.byte 252 // cld
.byte 190,0,0,128,191 // mov $0xbf800000,%esi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 33768 <.literal4+0x64>
+ .byte 224,64 // loopne 29c48 <.literal4+0x64>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 33771 <.literal4+0x6d>
+ .byte 71,225,61 // rex.RXB loope 29c51 <.literal4+0x6d>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3377b <.literal4+0x77>
+ .byte 127,67 // jg 29c5b <.literal4+0x77>
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,92,143,50,63 // sbbl $0x3f,0x328f5c3d(%rsi)
.byte 10,215 // or %bh,%dl
@@ -62098,7 +51729,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 33791 <.literal4+0x8d>
+ .byte 224,7 // loopne 29c71 <.literal4+0x8d>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -62109,8 +51740,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 337a4 <.literal4+0xa0>
- .byte 119,115 // ja 33819 <.literal4+0x115>
+ .byte 127,0 // jg 29c84 <.literal4+0xa0>
+ .byte 119,115 // ja 29cf9 <.literal4+0x115>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -62133,12 +51764,12 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3382f <.literal4+0x12b>
+ .byte 118,63 // jbe 29d0f <.literal4+0x12b>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3383e <.literal4+0x13a>
+ .byte 124,66 // jl 29d1e <.literal4+0x13a>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -62148,9 +51779,9 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 33861 <.literal4+0x15d>
+ .byte 112,65 // jo 29d41 <.literal4+0x15d>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3386b <.literal4+0x167>
+ .byte 127,71 // jg 29d4b <.literal4+0x167>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,89 // ds pop %rcx
@@ -62177,15 +51808,15 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 3388a <.literal4+0x186>
+ .byte 114,28 // jb 29d6a <.literal4+0x186>
.byte 199 // (bad)
.byte 62,0,0 // add %al,%ds:(%rax)
.byte 192,63,85 // sarb $0x55,(%rdi)
.byte 85 // push %rbp
.byte 149 // xchg %eax,%ebp
.byte 191,57,142,99,61 // mov $0x3d638e39,%edi
- .byte 114,249 // jb 33877 <.literal4+0x173>
- .byte 127,63 // jg 338bf <_sk_srcover_rgba_8888_sse2_lowp+0xe43>
+ .byte 114,249 // jb 29d57 <.literal4+0x173>
+ .byte 127,63 // jg 29d9f <_sk_srcover_rgba_8888_sse2_lowp+0x9e3>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 0,4,0 // add %al,(%rax,%rax,1)
@@ -62194,27 +51825,9 @@ BALIGN4
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 33891 <.literal4+0x18d>
+ .byte 127,0 // jg 29d71 <.literal4+0x18d>
.byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
- .byte 255 // (bad)
- .byte 248 // clc
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 252 // cld
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 248 // clc
- .byte 0,7 // add %al,(%rdi)
- .byte 0,7 // add %al,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 12,0 // or $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,1 // incl (%rcx)
- .byte 1,1 // add %eax,(%rcx)
- .byte 0,255 // add %bh,%bh
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
+ .byte 255 // .byte 0xff
BALIGN16
.byte 255,0 // incl (%rax)
@@ -62315,11 +51928,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 339e8 <.literal16+0x128>
+ .byte 224,64 // loopne 29ea8 <.literal16+0x128>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 339ec <.literal16+0x12c>
+ .byte 224,64 // loopne 29eac <.literal16+0x12c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 339f0 <.literal16+0x130>
+ .byte 224,64 // loopne 29eb0 <.literal16+0x130>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -62339,13 +51952,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 33a11 <.literal16+0x151>
+ .byte 71,225,61 // rex.RXB loope 29ed1 <.literal16+0x151>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 33a15 <.literal16+0x155>
+ .byte 71,225,61 // rex.RXB loope 29ed5 <.literal16+0x155>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 33a19 <.literal16+0x159>
+ .byte 71,225,61 // rex.RXB loope 29ed9 <.literal16+0x159>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 33a1d <.literal16+0x15d>
+ .byte 71,225,61 // rex.RXB loope 29edd <.literal16+0x15d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -62356,10 +51969,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0339f8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000f7c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a029eb8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000afc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3033a00 <_sk_srcover_rgba_8888_sse2_lowp+0x3000f84>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3029ec0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b04>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -62374,11 +51987,11 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 33a5b <.literal16+0x19b>
+ .byte 127,67 // jg 29f1b <.literal16+0x19b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 33a5f <.literal16+0x19f>
+ .byte 127,67 // jg 29f1f <.literal16+0x19f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 33a63 <.literal16+0x1a3>
+ .byte 127,67 // jg 29f23 <.literal16+0x1a3>
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
.byte 145 // xchg %eax,%ecx
@@ -62529,13 +52142,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 33b69 <.literal16+0x2a9>
+ .byte 224,7 // loopne 2a029 <.literal16+0x2a9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 33b6d <.literal16+0x2ad>
+ .byte 224,7 // loopne 2a02d <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 33b71 <.literal16+0x2b1>
+ .byte 224,7 // loopne 2a031 <.literal16+0x2b1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 33b75 <.literal16+0x2b5>
+ .byte 224,7 // loopne 2a035 <.literal16+0x2b5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -62589,17 +52202,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 33be4 <.literal16+0x324>
+ .byte 127,0 // jg 2a0a4 <.literal16+0x324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 33be8 <.literal16+0x328>
+ .byte 127,0 // jg 2a0a8 <.literal16+0x328>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 33bec <.literal16+0x32c>
+ .byte 127,0 // jg 2a0ac <.literal16+0x32c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 33bf0 <.literal16+0x330>
- .byte 119,115 // ja 33c65 <.literal16+0x3a5>
+ .byte 127,0 // jg 2a0b0 <.literal16+0x330>
+ .byte 119,115 // ja 2a125 <.literal16+0x3a5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -62610,7 +52223,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 33bc9 <.literal16+0x309>
+ .byte 117,191 // jne 2a089 <.literal16+0x309>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -62622,7 +52235,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a67c0a <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a3518e>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a5e0ca <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d0e>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -62712,16 +52325,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 33d53 <.literal16+0x493>
+ .byte 118,63 // jbe 2a213 <.literal16+0x493>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 33d57 <.literal16+0x497>
+ .byte 118,63 // jbe 2a217 <.literal16+0x497>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 33d5b <.literal16+0x49b>
+ .byte 118,63 // jbe 2a21b <.literal16+0x49b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 33d5f <.literal16+0x49f>
+ .byte 118,63 // jbe 2a21f <.literal16+0x49f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -62742,13 +52355,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 33d96 <.literal16+0x4d6>
+ .byte 124,66 // jl 2a256 <.literal16+0x4d6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 33d9a <.literal16+0x4da>
+ .byte 124,66 // jl 2a25a <.literal16+0x4da>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 33d9e <.literal16+0x4de>
+ .byte 124,66 // jl 2a25e <.literal16+0x4de>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 33da2 <.literal16+0x4e2>
+ .byte 124,66 // jl 2a262 <.literal16+0x4e2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -62794,25 +52407,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 33e25 <.literal16+0x565>
+ .byte 112,65 // jo 2a2e5 <.literal16+0x565>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 33e29 <.literal16+0x569>
+ .byte 112,65 // jo 2a2e9 <.literal16+0x569>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 33e2d <.literal16+0x56d>
+ .byte 112,65 // jo 2a2ed <.literal16+0x56d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 33e31 <.literal16+0x571>
+ .byte 112,65 // jo 2a2f1 <.literal16+0x571>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 33e03 <.literal16+0x543>
+ .byte 127,0 // jg 2a2c3 <.literal16+0x543>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 33e07 <.literal16+0x547>
+ .byte 127,0 // jg 2a2c7 <.literal16+0x547>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 33e0b <.literal16+0x54b>
+ .byte 127,0 // jg 2a2cb <.literal16+0x54b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 33e0f <.literal16+0x54f>
+ .byte 127,0 // jg 2a2cf <.literal16+0x54f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -62838,13 +52451,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 33e48 <.literal16+0x588>
+ .byte 127,255 // jg 2a308 <.literal16+0x588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 33e4c <.literal16+0x58c>
+ .byte 127,255 // jg 2a30c <.literal16+0x58c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 33e51 <.literal16+0x591>
+ .byte 127,0 // jg 2a311 <.literal16+0x591>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -62858,13 +52471,13 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 33ebb <.literal16+0x5fb>
+ .byte 127,71 // jg 2a37b <.literal16+0x5fb>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 33ebf <.literal16+0x5ff>
+ .byte 127,71 // jg 2a37f <.literal16+0x5ff>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 33ec3 <.literal16+0x603>
+ .byte 127,71 // jg 2a383 <.literal16+0x603>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 33ec7 <.literal16+0x607>
+ .byte 127,71 // jg 2a387 <.literal16+0x607>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -62894,10 +52507,10 @@ BALIGN16
.byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
.byte 152 // cwtl
.byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc34fca <_sk_srcover_rgba_8888_sse2_lowp+0x2dc0254e>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc2b48a <_sk_srcover_rgba_8888_sse2_lowp+0x2dc020ce>
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 33efc <.literal16+0x63c>
+ .byte 120,57 // js 2a3bc <.literal16+0x63c>
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -62962,13 +52575,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 33fae <.literal16+0x6ee>
+ .byte 114,28 // jb 2a46e <.literal16+0x6ee>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 33fb2 <.literal16+0x6f2>
+ .byte 62,114,28 // jb,pt 2a472 <.literal16+0x6f2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 33fb6 <.literal16+0x6f6>
+ .byte 62,114,28 // jb,pt 2a476 <.literal16+0x6f6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 33fba <.literal16+0x6fa>
+ .byte 62,114,28 // jb,pt 2a47a <.literal16+0x6fa>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -62987,15 +52600,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d66ce05 <_sk_srcover_rgba_8888_sse2_lowp+0x3d63a389>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d6632c5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f09>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 34013 <.literal16+0x753>
- .byte 114,249 // jb 33fcf <.literal16+0x70f>
- .byte 127,63 // jg 34017 <.literal16+0x757>
- .byte 114,249 // jb 33fd3 <.literal16+0x713>
- .byte 127,63 // jg 3401b <.literal16+0x75b>
- .byte 114,249 // jb 33fd7 <.literal16+0x717>
- .byte 127,63 // jg 3401f <.literal16+0x75f>
+ .byte 127,63 // jg 2a4d3 <.literal16+0x753>
+ .byte 114,249 // jb 2a48f <.literal16+0x70f>
+ .byte 127,63 // jg 2a4d7 <.literal16+0x757>
+ .byte 114,249 // jb 2a493 <.literal16+0x713>
+ .byte 127,63 // jg 2a4db <.literal16+0x75b>
+ .byte 114,249 // jb 2a497 <.literal16+0x717>
+ .byte 127,63 // jg 2a4df <.literal16+0x75f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -63035,90 +52648,25 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 3,3 // add (%rbx),%eax
- .byte 3,3 // add (%rbx),%eax
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 7 // (bad)
- .byte 11,11 // or (%rbx),%ecx
- .byte 11,11 // or (%rbx),%ecx
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15 // (bad)
- .byte 15,2,1 // lar (%rcx),%eax
- .byte 0,3 // add %al,(%rbx)
- .byte 6 // (bad)
- .byte 5,4,7,10,9 // add $0x90a0704,%eax
- .byte 8,11 // or %cl,(%rbx)
- .byte 14 // (bad)
- .byte 13,12,15,248,0 // or $0xf80f0c,%eax
- .byte 0,0 // add %al,(%rax)
- .byte 248 // clc
- .byte 0,0 // add %al,(%rax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 252 // cld
- .byte 0,0 // add %al,(%rax)
- .byte 0,252 // add %bh,%ah
- .byte 0,0 // add %al,(%rax)
- .byte 0,252 // add %bh,%ah
- .byte 0,0 // add %al,(%rax)
- .byte 0,252 // add %bh,%ah
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 248 // clc
- .byte 0,0 // add %al,(%rax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 1,4,5,8,9,12,13 // add %eax,0xd0c0908(,%rax,1)
+ .byte 254,1 // incb (%rcx)
+ .byte 254,1 // incb (%rcx)
+ .byte 254,1 // incb (%rcx)
+ .byte 254,1 // incb (%rcx)
+ .byte 254,1 // incb (%rcx)
+ .byte 254,1 // incb (%rcx)
+ .byte 254,1 // incb (%rcx)
+ .byte 254,1 // incb (%rcx)
+ .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
+ .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
+ .byte 0,128,0,128,0,1 // add %al,0x1008000(%rax)
+ .byte 4,5 // add $0x5,%al
+ .byte 8,9 // or %cl,(%rcx)
+ .byte 12,13 // or $0xd,%al
.byte 8,9 // or %cl,(%rcx)
.byte 12,13 // or $0xd,%al
.byte 12,13 // or $0xd,%al
.byte 14 // (bad)
- .byte 15,7 // sysret
- .byte 0,7 // add %al,(%rdi)
- .byte 0,7 // add %al,(%rdi)
- .byte 0,7 // add %al,(%rdi)
- .byte 0,7 // add %al,(%rdi)
- .byte 0,7 // add %al,(%rdi)
- .byte 0,7 // add %al,(%rdi)
- .byte 0,7 // add %al,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 12,0 // or $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 12,0 // or $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 12,0 // or $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 12,0 // or $0x0,%al
- .byte 0,255 // add %bh,%bh
- .byte 255 // (bad)
- .byte 255,8 // decl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,12,255 // decl (%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 3,255 // add %edi,%edi
+ .byte 15,3,255 // lsl %di,%edi
.byte 7 // (bad)
.byte 255,11 // decl (%rbx)
.byte 255,15 // decl (%rdi)
@@ -63127,66 +52675,8 @@ BALIGN16
.byte 255,15 // decl (%rdi)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,1 // incl (%rcx)
- .byte 1,1 // add %eax,(%rcx)
- .byte 0,1 // add %al,(%rcx)
- .byte 1,1 // add %eax,(%rcx)
- .byte 0,1 // add %al,(%rcx)
- .byte 1,1 // add %eax,(%rcx)
- .byte 0,1 // add %al,(%rcx)
- .byte 1,1 // add %eax,(%rcx)
- .byte 0,8 // add %cl,(%rax)
- .byte 8,8 // or %cl,(%rax)
- .byte 8,10 // or %cl,(%rdx)
- .byte 10,10 // or (%rdx),%cl
- .byte 10,12,12 // or (%rsp,%rcx,1),%cl
- .byte 12,12 // or $0xc,%al
- .byte 14 // (bad)
- .byte 14 // (bad)
- .byte 14 // (bad)
- .byte 14 // (bad)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 2,2 // add (%rdx),%al
- .byte 2,2 // add (%rdx),%al
- .byte 4,4 // add $0x4,%al
- .byte 4,4 // add $0x4,%al
- .byte 6 // (bad)
- .byte 6 // (bad)
- .byte 6 // (bad)
- .byte 6 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 127,0 // jg 34112 <.literal16+0x852>
- .byte 127,0 // jg 34114 <.literal16+0x854>
- .byte 127,0 // jg 34116 <.literal16+0x856>
- .byte 127,0 // jg 34118 <.literal16+0x858>
- .byte 127,0 // jg 3411a <.literal16+0x85a>
- .byte 127,0 // jg 3411c <.literal16+0x85c>
- .byte 127,0 // jg 3411e <.literal16+0x85e>
- .byte 127,0 // jg 34120 <.literal16+0x860>
- .byte 129,128,129,128,129,128,129,128,129,128// addl $0x80818081,-0x7f7e7f7f(%rax)
- .byte 129,128,129,128,129,128,254,1,254,1 // addl $0x1fe01fe,-0x7f7e7f7f(%rax)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,2,3 // add %al,0x3028000(%rax)
- .byte 6 // (bad)
+ .byte 255,2 // incl (%rdx)
+ .byte 3,6 // add (%rsi),%eax
.byte 7 // (bad)
.byte 10,11 // or (%rbx),%cl
.byte 14 // (bad)
@@ -63228,14 +52718,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 341a1 <.literal16+0x8e1>
- .byte 224,255 // loopne 341a3 <.literal16+0x8e3>
- .byte 224,255 // loopne 341a5 <.literal16+0x8e5>
- .byte 224,255 // loopne 341a7 <.literal16+0x8e7>
- .byte 224,255 // loopne 341a9 <.literal16+0x8e9>
- .byte 224,255 // loopne 341ab <.literal16+0x8eb>
- .byte 224,255 // loopne 341ad <.literal16+0x8ed>
- .byte 224,255 // loopne 341af <.literal16+0x8ef>
+ .byte 224,255 // loopne 2a571 <.literal16+0x7f1>
+ .byte 224,255 // loopne 2a573 <.literal16+0x7f3>
+ .byte 224,255 // loopne 2a575 <.literal16+0x7f5>
+ .byte 224,255 // loopne 2a577 <.literal16+0x7f7>
+ .byte 224,255 // loopne 2a579 <.literal16+0x7f9>
+ .byte 224,255 // loopne 2a57b <.literal16+0x7fb>
+ .byte 224,255 // loopne 2a57d <.literal16+0x7fd>
+ .byte 224,255 // loopne 2a57f <.literal16+0x7ff>
.byte 254,0 // incb (%rax)
.byte 254,0 // incb (%rax)
.byte 254,0 // incb (%rax)
@@ -63259,9 +52749,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 341db <.literal8+0x1b>
+ .byte 127,0 // jg 2a5ab <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 341df <.literal8+0x1f>
+ .byte 127,0 // jg 2a5af <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
@@ -63353,11 +52843,11 @@ _sk_seed_shader_sse2:
.byte 102,15,110,2 // movd (%edx),%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,128,140,0,1,0 // addps 0x1008c(%eax),%xmm0
+ .byte 15,88,128,124,196,0,0 // addps 0xc47c(%eax),%xmm0
.byte 102,15,110,74,4 // movd 0x4(%edx),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,136,156,0,1,0 // addps 0x1009c(%eax),%xmm1
+ .byte 15,88,136,140,196,0,0 // addps 0xc48c(%eax),%xmm1
.byte 141,113,4 // lea 0x4(%ecx),%esi
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,41,82,64 // movaps %xmm2,0x40(%edx)
@@ -63365,7 +52855,7 @@ _sk_seed_shader_sse2:
.byte 15,41,82,32 // movaps %xmm2,0x20(%edx)
.byte 15,41,82,16 // movaps %xmm2,0x10(%edx)
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,172,0,1,0 // movaps 0x100ac(%eax),%xmm2
+ .byte 15,40,144,156,196,0,0 // movaps 0xc49c(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 86 // push %esi
.byte 82 // push %edx
@@ -63392,15 +52882,15 @@ _sk_dither_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 102,15,110,32 // movd (%eax),%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,254,161,71,0,1,0 // paddd 0x10047(%ecx),%xmm4
+ .byte 102,15,254,161,55,196,0,0 // paddd 0xc437(%ecx),%xmm4
.byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5
.byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7
.byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,111,177,87,0,1,0 // movdqa 0x10057(%ecx),%xmm6
+ .byte 102,15,111,177,71,196,0,0 // movdqa 0xc447(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,114,241,5 // pslld $0x5,%xmm1
- .byte 102,15,111,129,119,0,1,0 // movdqa 0x10077(%ecx),%xmm0
+ .byte 102,15,111,129,103,196,0,0 // movdqa 0xc467(%ecx),%xmm0
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,114,245,2 // pslld $0x2,%xmm5
@@ -63410,7 +52900,7 @@ _sk_dither_sse2:
.byte 102,15,219,196 // pand %xmm4,%xmm0
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,137,103,0,1,0 // movdqa 0x10067(%ecx),%xmm1
+ .byte 102,15,111,137,87,196,0,0 // movdqa 0xc457(%ecx),%xmm1
.byte 102,15,219,249 // pand %xmm1,%xmm7
.byte 102,15,219,225 // pand %xmm1,%xmm4
.byte 102,15,114,212,2 // psrld $0x2,%xmm4
@@ -63421,8 +52911,8 @@ _sk_dither_sse2:
.byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,135,0,1,0 // mulps 0x10087(%ecx),%xmm0
- .byte 15,88,129,151,0,1,0 // addps 0x10097(%ecx),%xmm0
+ .byte 15,89,129,119,196,0,0 // mulps 0xc477(%ecx),%xmm0
+ .byte 15,88,129,135,196,0,0 // addps 0xc487(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -63490,7 +52980,7 @@ _sk_black_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,251,254,0,0 // movaps 0xfefb(%eax),%xmm3
+ .byte 15,40,152,235,194,0,0 // movaps 0xc2eb(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -63513,7 +53003,7 @@ _sk_white_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,203,254,0,0 // movaps 0xfecb(%eax),%xmm0
+ .byte 15,40,128,187,194,0,0 // movaps 0xc2bb(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -63603,7 +53093,7 @@ _sk_srcatop_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,28,254,0,0 // movaps 0xfe1c(%edx),%xmm5
+ .byte 15,40,170,12,194,0,0 // movaps 0xc20c(%edx),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -63642,7 +53132,7 @@ _sk_dstatop_sse2:
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,189,253,0,0 // movaps 0xfdbd(%edx),%xmm4
+ .byte 15,40,162,173,193,0,0 // movaps 0xc1ad(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
@@ -63726,7 +53216,7 @@ _sk_srcout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,252,252,0,0 // movaps 0xfcfc(%eax),%xmm4
+ .byte 15,40,160,236,192,0,0 // movaps 0xc0ec(%eax),%xmm4
.byte 15,92,98,64 // subps 0x40(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
@@ -63752,7 +53242,7 @@ _sk_dstout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,196,252,0,0 // movaps 0xfcc4(%eax),%xmm4
+ .byte 15,40,160,180,192,0,0 // movaps 0xc0b4(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -63782,7 +53272,7 @@ _sk_srcover_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,125,252,0,0 // movaps 0xfc7d(%eax),%xmm4
+ .byte 15,40,160,109,192,0,0 // movaps 0xc06d(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -63816,7 +53306,7 @@ _sk_dstover_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,45,252,0,0 // movaps 0xfc2d(%eax),%xmm4
+ .byte 15,40,160,29,192,0,0 // movaps 0xc01d(%eax),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
@@ -63872,7 +53362,7 @@ _sk_multiply_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,174,251,0,0 // movaps 0xfbae(%ecx),%xmm0
+ .byte 15,40,129,158,191,0,0 // movaps 0xbf9e(%ecx),%xmm0
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -63932,7 +53422,7 @@ _sk_plus__sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,40,160,8,251,0,0 // movaps 0xfb08(%eax),%xmm4
+ .byte 15,40,160,248,190,0,0 // movaps 0xbef8(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,88,74,32 // addps 0x20(%edx),%xmm1
.byte 15,93,204 // minps %xmm4,%xmm1
@@ -64004,7 +53494,7 @@ _sk_xor__sse2:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,90,250,0,0 // movaps 0xfa5a(%edx),%xmm3
+ .byte 15,40,154,74,190,0,0 // movaps 0xbe4a(%edx),%xmm3
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,89,198 // mulps %xmm6,%xmm0
@@ -64066,7 +53556,7 @@ _sk_darken_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,95,209 // maxps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,242,249,0,0 // movaps 0xf9f2(%edx),%xmm1
+ .byte 15,40,138,226,189,0,0 // movaps 0xbde2(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -64115,7 +53605,7 @@ _sk_lighten_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,93,209 // minps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,114,249,0,0 // movaps 0xf972(%edx),%xmm1
+ .byte 15,40,138,98,189,0,0 // movaps 0xbd62(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -64168,7 +53658,7 @@ _sk_difference_sse2:
.byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,239,248,0,0 // movaps 0xf8ef(%edx),%xmm2
+ .byte 15,40,146,223,188,0,0 // movaps 0xbcdf(%edx),%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -64212,7 +53702,7 @@ _sk_exclusion_sse2:
.byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,105,248,0,0 // movaps 0xf869(%edx),%xmm1
+ .byte 15,40,138,89,188,0,0 // movaps 0xbc59(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -64253,7 +53743,7 @@ _sk_colorburn_sse2:
.byte 15,93,198 // minps %xmm6,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,177,234,247,0,0 // movaps 0xf7ea(%ecx),%xmm6
+ .byte 15,40,177,218,187,0,0 // movaps 0xbbda(%ecx),%xmm6
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
@@ -64370,7 +53860,7 @@ _sk_colordodge_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,145,97,246,0,0 // movaps 0xf661(%ecx),%xmm2
+ .byte 15,40,145,81,186,0,0 // movaps 0xba51(%ecx),%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,250 // movaps %xmm2,%xmm7
@@ -64487,7 +53977,7 @@ _sk_hardlight_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,0,245,0,0 // movaps 0xf500(%ecx),%xmm2
+ .byte 15,40,145,240,184,0,0 // movaps 0xb8f0(%ecx),%xmm2
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -64597,7 +54087,7 @@ _sk_overlay_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,181,243,0,0 // movaps 0xf3b5(%ecx),%xmm4
+ .byte 15,40,161,165,183,0,0 // movaps 0xb7a5(%ecx),%xmm4
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -64725,17 +54215,17 @@ _sk_softlight_sse2:
.byte 232,0,0,0,0 // call f1b <_sk_softlight_sse2+0x52>
.byte 89 // pop %ecx
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,149,242,0,0 // movaps 0xf295(%ecx),%xmm1
+ .byte 15,40,137,133,182,0,0 // movaps 0xb685(%ecx),%xmm1
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
.byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,37,242,0,0 // movaps 0xf225(%ecx),%xmm7
+ .byte 15,40,185,21,182,0,0 // movaps 0xb615(%ecx),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,82,242 // rsqrtps %xmm2,%xmm6
.byte 15,83,206 // rcpps %xmm6,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,165,242,0,0 // movaps 0xf2a5(%ecx),%xmm4
+ .byte 15,40,161,149,182,0,0 // movaps 0xb695(%ecx),%xmm4
.byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
@@ -64941,7 +54431,7 @@ _sk_hue_sse2:
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,100,239,0,0 // movaps 0xef64(%ecx),%xmm5
+ .byte 15,40,169,84,179,0,0 // movaps 0xb354(%ecx),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
@@ -64974,17 +54464,17 @@ _sk_hue_sse2:
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,244,239,0,0 // movaps 0xeff4(%ecx),%xmm3
+ .byte 15,40,153,228,179,0,0 // movaps 0xb3e4(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,4,240,0,0 // movaps 0xf004(%ecx),%xmm3
+ .byte 15,40,153,244,179,0,0 // movaps 0xb3f4(%ecx),%xmm3
.byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,100,239,0,0 // movaps 0xef64(%ecx),%xmm1
+ .byte 15,40,137,84,179,0,0 // movaps 0xb354(%ecx),%xmm1
.byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
@@ -64994,7 +54484,7 @@ _sk_hue_sse2:
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,20,240,0,0 // movaps 0xf014(%ecx),%xmm5
+ .byte 15,40,169,4,180,0,0 // movaps 0xb404(%ecx),%xmm5
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
.byte 15,94,212 // divps %xmm4,%xmm2
@@ -65187,17 +54677,17 @@ _sk_saturation_sse2:
.byte 15,89,253 // mulps %xmm5,%xmm7
.byte 232,0,0,0,0 // call 1530 <_sk_saturation_sse2+0xb0>
.byte 89 // pop %ecx
- .byte 15,40,153,160,236,0,0 // movaps 0xeca0(%ecx),%xmm3
+ .byte 15,40,153,144,176,0,0 // movaps 0xb090(%ecx),%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,176,236,0,0 // movaps 0xecb0(%ecx),%xmm3
+ .byte 15,40,153,160,176,0,0 // movaps 0xb0a0(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,16,236,0,0 // movaps 0xec10(%ecx),%xmm0
+ .byte 15,40,129,0,176,0,0 // movaps 0xb000(%ecx),%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -65209,7 +54699,7 @@ _sk_saturation_sse2:
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,192,236,0,0 // movaps 0xecc0(%ecx),%xmm0
+ .byte 15,40,129,176,176,0,0 // movaps 0xb0b0(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
@@ -65368,16 +54858,16 @@ _sk_color_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
.byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,69,234,0,0 // movaps 0xea45(%ecx),%xmm6
+ .byte 15,40,177,53,174,0,0 // movaps 0xae35(%ecx),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,85,234,0,0 // movaps 0xea55(%ecx),%xmm3
+ .byte 15,40,153,69,174,0,0 // movaps 0xae45(%ecx),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,181,233,0,0 // movaps 0xe9b5(%ecx),%xmm0
+ .byte 15,40,129,165,173,0,0 // movaps 0xada5(%ecx),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -65387,7 +54877,7 @@ _sk_color_sse2:
.byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,101,234,0,0 // movaps 0xea65(%ecx),%xmm1
+ .byte 15,40,137,85,174,0,0 // movaps 0xae55(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
@@ -65546,18 +55036,18 @@ _sk_luminosity_sse2:
.byte 232,0,0,0,0 // call 19ee <_sk_luminosity_sse2+0x11>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,226,231,0,0 // movaps 0xe7e2(%ecx),%xmm4
+ .byte 15,40,161,210,171,0,0 // movaps 0xabd2(%ecx),%xmm4
.byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,242,231,0,0 // movaps 0xe7f2(%ecx),%xmm4
+ .byte 15,40,161,226,171,0,0 // movaps 0xabe2(%ecx),%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,82,231,0,0 // movaps 0xe752(%ecx),%xmm4
+ .byte 15,40,161,66,171,0,0 // movaps 0xab42(%ecx),%xmm4
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -65567,7 +55057,7 @@ _sk_luminosity_sse2:
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
.byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,2,232,0,0 // movaps 0xe802(%ecx),%xmm1
+ .byte 15,40,137,242,171,0,0 // movaps 0xabf2(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,213 // addps %xmm5,%xmm2
.byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
@@ -65743,7 +55233,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,224,0,0,0 // jne 1d5b <_sk_srcover_rgba_8888_sse2+0x119>
.byte 243,15,111,20,178 // movdqu (%edx,%esi,4),%xmm2
- .byte 102,15,111,167,167,229,0,0 // movdqa 0xe5a7(%edi),%xmm4
+ .byte 102,15,111,167,151,169,0,0 // movdqa 0xa997(%edi),%xmm4
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 102,15,111,242 // movdqa %xmm2,%xmm6
@@ -65754,9 +55244,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 15,91,229 // cvtdq2ps %xmm5,%xmm4
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,175,231,228,0,0 // movaps 0xe4e7(%edi),%xmm5
+ .byte 15,40,175,215,168,0,0 // movaps 0xa8d7(%edi),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,143,183,229,0,0 // movaps 0xe5b7(%edi),%xmm1
+ .byte 15,40,143,167,169,0,0 // movaps 0xa9a7(%edi),%xmm1
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
@@ -65870,7 +55360,7 @@ _sk_clamp_1_sse2:
.byte 232,0,0,0,0 // call 1e05 <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,59,227,0,0 // movaps 0xe33b(%eax),%xmm4
+ .byte 15,40,160,43,167,0,0 // movaps 0xa72b(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,93,204 // minps %xmm4,%xmm1
.byte 15,93,212 // minps %xmm4,%xmm2
@@ -65894,7 +55384,7 @@ _sk_clamp_a_sse2:
.byte 232,0,0,0,0 // call 1e38 <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,8,227,0,0 // minps 0xe308(%eax),%xmm3
+ .byte 15,93,152,248,166,0,0 // minps 0xa6f8(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -65919,7 +55409,7 @@ _sk_clamp_a_dst_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,216,226,0,0 // minps 0xe2d8(%eax),%xmm4
+ .byte 15,93,160,200,166,0,0 // minps 0xa6c8(%eax),%xmm4
.byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,40,114,32 // movaps 0x20(%edx),%xmm6
@@ -65993,7 +55483,7 @@ _sk_invert_sse2:
.byte 232,0,0,0,0 // call 1f13 <_sk_invert_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,45,226,0,0 // movaps 0xe22d(%eax),%xmm4
+ .byte 15,40,160,29,166,0,0 // movaps 0xa61d(%eax),%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
@@ -66116,7 +55606,7 @@ _sk_unpremul_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,40,168,47,225,0,0 // movaps 0xe12f(%eax),%xmm5
+ .byte 15,40,168,31,165,0,0 // movaps 0xa51f(%eax),%xmm5
.byte 15,94,235 // divps %xmm3,%xmm5
.byte 15,194,227,4 // cmpneqps %xmm3,%xmm4
.byte 15,84,229 // andps %xmm5,%xmm4
@@ -66147,19 +55637,19 @@ _sk_from_srgb_sse2:
.byte 88 // pop %eax
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,117,225,0,0 // movaps 0xe175(%eax),%xmm4
+ .byte 15,40,160,101,165,0,0 // movaps 0xa565(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,213,225,0,0 // movaps 0xe1d5(%eax),%xmm6
+ .byte 15,40,176,197,165,0,0 // movaps 0xa5c5(%eax),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,197,225,0,0 // movaps 0xe1c5(%eax),%xmm6
+ .byte 15,40,176,181,165,0,0 // movaps 0xa5b5(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,229,225,0,0 // movaps 0xe1e5(%eax),%xmm7
+ .byte 15,40,184,213,165,0,0 // movaps 0xa5d5(%eax),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,245,225,0,0 // movaps 0xe1f5(%eax),%xmm7
+ .byte 15,40,184,229,165,0,0 // movaps 0xa5e5(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -66219,18 +55709,18 @@ _sk_from_srgb_dst_sse2:
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,154,224,0,0 // movaps 0xe09a(%ecx),%xmm4
+ .byte 15,40,161,138,164,0,0 // movaps 0xa48a(%ecx),%xmm4
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,250,224,0,0 // movaps 0xe0fa(%ecx),%xmm6
+ .byte 15,40,177,234,164,0,0 // movaps 0xa4ea(%ecx),%xmm6
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,234,224,0,0 // movaps 0xe0ea(%ecx),%xmm5
+ .byte 15,40,169,218,164,0,0 // movaps 0xa4da(%ecx),%xmm5
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,10,225,0,0 // movaps 0xe10a(%ecx),%xmm7
+ .byte 15,40,185,250,164,0,0 // movaps 0xa4fa(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,26,225,0,0 // movaps 0xe11a(%ecx),%xmm3
+ .byte 15,40,153,10,165,0,0 // movaps 0xa50a(%ecx),%xmm3
.byte 15,194,203,1 // cmpltps %xmm3,%xmm1
.byte 15,84,209 // andps %xmm1,%xmm2
.byte 15,85,200 // andnps %xmm0,%xmm1
@@ -66292,25 +55782,25 @@ _sk_to_srgb_sse2:
.byte 232,0,0,0,0 // call 2221 <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,79,224,0,0 // movaps 0xe04f(%eax),%xmm4
+ .byte 15,40,160,63,164,0,0 // movaps 0xa43f(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,95,224,0,0 // movaps 0xe05f(%eax),%xmm0
+ .byte 15,40,128,79,164,0,0 // movaps 0xa44f(%eax),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,111,224,0,0 // movaps 0xe06f(%eax),%xmm0
+ .byte 15,40,128,95,164,0,0 // movaps 0xa45f(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,127,224,0,0 // movaps 0xe07f(%eax),%xmm0
+ .byte 15,40,128,111,164,0,0 // movaps 0xa46f(%eax),%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,63,224,0,0 // movaps 0xe03f(%eax),%xmm5
+ .byte 15,40,168,47,164,0,0 // movaps 0xa42f(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,143,224,0,0 // movaps 0xe08f(%eax),%xmm3
+ .byte 15,40,152,127,164,0,0 // movaps 0xa47f(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -66381,14 +55871,14 @@ _sk_rgb_to_hsl_sse2:
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,136,40,222,0,0 // movaps 0xde28(%eax),%xmm1
+ .byte 15,40,136,24,162,0,0 // movaps 0xa218(%eax),%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,168,223,0,0 // andps 0xdfa8(%eax),%xmm5
+ .byte 15,84,168,152,163,0,0 // andps 0xa398(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
@@ -66398,9 +55888,9 @@ _sk_rgb_to_hsl_sse2:
.byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,136,184,223,0,0 // movaps 0xdfb8(%eax),%xmm1
+ .byte 15,40,136,168,163,0,0 // movaps 0xa3a8(%eax),%xmm1
.byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,160,200,223,0,0 // addps 0xdfc8(%eax),%xmm4
+ .byte 15,88,160,184,163,0,0 // addps 0xa3b8(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
@@ -66412,7 +55902,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,168,24,222,0,0 // movaps 0xde18(%eax),%xmm5
+ .byte 15,40,168,8,162,0,0 // movaps 0xa208(%eax),%xmm5
.byte 15,92,202 // subps %xmm2,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
@@ -66422,7 +55912,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,86,233 // orps %xmm1,%xmm5
.byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,216,223,0,0 // mulps 0xdfd8(%eax),%xmm0
+ .byte 15,89,128,200,163,0,0 // mulps 0xa3c8(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -66447,7 +55937,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
.byte 232,0,0,0,0 // call 2413 <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,160,29,221,0,0 // movaps 0xdd1d(%eax),%xmm4
+ .byte 15,40,160,13,161,0,0 // movaps 0xa10d(%eax),%xmm4
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,194,218,2 // cmpleps %xmm2,%xmm3
@@ -66460,13 +55950,13 @@ _sk_hsl_to_rgb_sse2:
.byte 15,84,243 // andps %xmm3,%xmm6
.byte 15,85,217 // andnps %xmm1,%xmm3
.byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,237,222,0,0 // movaps 0xdeed(%eax),%xmm5
+ .byte 15,40,168,221,162,0,0 // movaps 0xa2dd(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,45,221,0,0 // movaps 0xdd2d(%eax),%xmm6
+ .byte 15,40,176,29,161,0,0 // movaps 0xa11d(%eax),%xmm6
.byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,200 // subps %xmm0,%xmm1
@@ -66476,19 +55966,19 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,253,222,0,0 // movaps 0xdefd(%eax),%xmm7
+ .byte 15,40,184,237,162,0,0 // movaps 0xa2ed(%eax),%xmm7
.byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
.byte 15,194,253,2 // cmpleps %xmm5,%xmm7
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,221,222,0,0 // movaps 0xdedd(%eax),%xmm4
+ .byte 15,40,160,205,162,0,0 // movaps 0xa2cd(%eax),%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,173,222,0,0 // movaps 0xdead(%eax),%xmm6
+ .byte 15,40,176,157,162,0,0 // movaps 0xa29d(%eax),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,205,222,0,0 // movaps 0xdecd(%eax),%xmm0
+ .byte 15,40,128,189,162,0,0 // movaps 0xa2bd(%eax),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -66514,18 +56004,18 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,45,221,0,0 // andps 0xdd2d(%eax),%xmm1
+ .byte 15,84,136,29,161,0,0 // andps 0xa11d(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,253,222,0,0 // movaps 0xdefd(%eax),%xmm0
+ .byte 15,40,128,237,162,0,0 // movaps 0xa2ed(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,29,221,0,0 // movaps 0xdd1d(%eax),%xmm3
+ .byte 15,40,152,13,161,0,0 // movaps 0xa10d(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,221,222,0,0 // movaps 0xdedd(%eax),%xmm4
+ .byte 15,40,160,205,162,0,0 // movaps 0xa2cd(%eax),%xmm4
.byte 15,194,225,2 // cmpleps %xmm1,%xmm4
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,205,222,0,0 // movaps 0xdecd(%eax),%xmm5
+ .byte 15,40,168,189,162,0,0 // movaps 0xa2bd(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
@@ -66545,7 +56035,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,85,252 // andnps %xmm4,%xmm7
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,13,223,0,0 // addps 0xdf0d(%eax),%xmm3
+ .byte 15,88,152,253,162,0,0 // addps 0xa2fd(%eax),%xmm3
.byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -66647,9 +56137,9 @@ _sk_scale_u8_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,115,219,0,0 // pand 0xdb73(%edx),%xmm4
+ .byte 102,15,219,162,99,159,0,0 // pand 0x9f63(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,163,220,0,0 // mulps 0xdca3(%edx),%xmm4
+ .byte 15,89,162,147,160,0,0 // mulps 0xa093(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
@@ -66715,17 +56205,17 @@ _sk_scale_565_sse2:
.byte 15,133,157,0,0,0 // jne 2805 <_sk_scale_565_sse2+0xd8>
.byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,249,219,0,0 // movdqa 0xdbf9(%edx),%xmm4
+ .byte 102,15,111,162,233,159,0,0 // movdqa 0x9fe9(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,146,9,220,0,0 // mulps 0xdc09(%edx),%xmm2
- .byte 102,15,111,170,25,220,0,0 // movdqa 0xdc19(%edx),%xmm5
+ .byte 15,89,146,249,159,0,0 // mulps 0x9ff9(%edx),%xmm2
+ .byte 102,15,111,170,9,160,0,0 // movdqa 0xa009(%edx),%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,41,220,0,0 // mulps 0xdc29(%edx),%xmm5
- .byte 102,15,219,178,57,220,0,0 // pand 0xdc39(%edx),%xmm6
+ .byte 15,89,170,25,160,0,0 // mulps 0xa019(%edx),%xmm5
+ .byte 102,15,219,178,41,160,0,0 // pand 0xa029(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,73,220,0,0 // mulps 0xdc49(%edx),%xmm6
+ .byte 15,89,178,57,160,0,0 // mulps 0xa039(%edx),%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,40,226 // movaps %xmm2,%xmm4
@@ -66839,9 +56329,9 @@ _sk_lerp_u8_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,75,217,0,0 // pand 0xd94b(%edx),%xmm4
+ .byte 102,15,219,162,59,157,0,0 // pand 0x9d3b(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,123,218,0,0 // mulps 0xda7b(%edx),%xmm4
+ .byte 15,89,162,107,158,0,0 // mulps 0x9e6b(%edx),%xmm4
.byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -66919,17 +56409,17 @@ _sk_lerp_565_sse2:
.byte 15,133,211,0,0,0 // jne 2a93 <_sk_lerp_565_sse2+0x113>
.byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 102,15,111,162,161,217,0,0 // movdqa 0xd9a1(%edx),%xmm4
+ .byte 102,15,111,162,145,157,0,0 // movdqa 0x9d91(%edx),%xmm4
.byte 102,15,219,229 // pand %xmm5,%xmm4
.byte 15,91,204 // cvtdq2ps %xmm4,%xmm1
- .byte 15,89,138,177,217,0,0 // mulps 0xd9b1(%edx),%xmm1
- .byte 102,15,111,178,193,217,0,0 // movdqa 0xd9c1(%edx),%xmm6
+ .byte 15,89,138,161,157,0,0 // mulps 0x9da1(%edx),%xmm1
+ .byte 102,15,111,178,177,157,0,0 // movdqa 0x9db1(%edx),%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,209,217,0,0 // mulps 0xd9d1(%edx),%xmm6
- .byte 102,15,219,170,225,217,0,0 // pand 0xd9e1(%edx),%xmm5
+ .byte 15,89,178,193,157,0,0 // mulps 0x9dc1(%edx),%xmm6
+ .byte 102,15,219,170,209,157,0,0 // pand 0x9dd1(%edx),%xmm5
.byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,146,241,217,0,0 // mulps 0xd9f1(%edx),%xmm2
+ .byte 15,89,146,225,157,0,0 // mulps 0x9de1(%edx),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -67017,7 +56507,7 @@ _sk_load_tables_sse2:
.byte 139,30 // mov (%esi),%ebx
.byte 15,133,22,1,0,0 // jne 2c17 <_sk_load_tables_sse2+0x13c>
.byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,23,215,0,0 // movdqa 0xd717(%edx),%xmm2
+ .byte 102,15,111,146,7,155,0,0 // movdqa 0x9b07(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -67073,7 +56563,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,71,216,0,0 // mulps 0xd847(%edx),%xmm3
+ .byte 15,89,154,55,156,0,0 // mulps 0x9c37(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -67148,7 +56638,7 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,70,215,0,0 // movdqa 0xd746(%edx),%xmm2
+ .byte 102,15,111,146,54,155,0,0 // movdqa 0x9b36(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
@@ -67220,7 +56710,7 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3
.byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,86,215,0,0 // mulps 0xd756(%edx),%xmm3
+ .byte 15,89,154,70,155,0,0 // mulps 0x9b46(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -67293,7 +56783,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,31,213,0,0 // movdqa 0xd51f(%edx),%xmm2
+ .byte 102,15,111,146,15,153,0,0 // movdqa 0x990f(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
@@ -67358,7 +56848,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 137,198 // mov %eax,%esi
.byte 141,70,8 // lea 0x8(%esi),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,191,210,0,0 // movaps 0xd2bf(%edx),%xmm3
+ .byte 15,40,154,175,150,0,0 // movaps 0x96af(%edx),%xmm3
.byte 80 // push %eax
.byte 81 // push %ecx
.byte 255,86,4 // call *0x4(%esi)
@@ -67401,7 +56891,7 @@ _sk_byte_tables_sse2:
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 15,40,162,98,209,0,0 // movaps 0xd162(%edx),%xmm4
+ .byte 15,40,162,82,149,0,0 // movaps 0x9552(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -67423,7 +56913,7 @@ _sk_byte_tables_sse2:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 139,65,4 // mov 0x4(%ecx),%eax
.byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0
- .byte 15,40,170,130,210,0,0 // movaps 0xd282(%edx),%xmm5
+ .byte 15,40,170,114,150,0,0 // movaps 0x9672(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -67553,7 +57043,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,15,110,199 // movd %edi,%xmm0
.byte 139,121,4 // mov 0x4(%ecx),%edi
.byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0
- .byte 15,40,170,134,208,0,0 // movaps 0xd086(%edx),%xmm5
+ .byte 15,40,170,118,148,0,0 // movaps 0x9476(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -67809,15 +57299,15 @@ _sk_parametric_r_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,70,206,0,0 // mulps 0xce46(%edx),%xmm5
- .byte 15,84,178,86,206,0,0 // andps 0xce56(%edx),%xmm6
- .byte 15,86,178,182,203,0,0 // orps 0xcbb6(%edx),%xmm6
- .byte 15,88,170,102,206,0,0 // addps 0xce66(%edx),%xmm5
- .byte 15,40,186,118,206,0,0 // movaps 0xce76(%edx),%xmm7
+ .byte 15,89,170,54,146,0,0 // mulps 0x9236(%edx),%xmm5
+ .byte 15,84,178,70,146,0,0 // andps 0x9246(%edx),%xmm6
+ .byte 15,86,178,166,143,0,0 // orps 0x8fa6(%edx),%xmm6
+ .byte 15,88,170,86,146,0,0 // addps 0x9256(%edx),%xmm5
+ .byte 15,40,186,102,146,0,0 // movaps 0x9266(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,134,206,0,0 // addps 0xce86(%edx),%xmm6
- .byte 15,40,186,150,206,0,0 // movaps 0xce96(%edx),%xmm7
+ .byte 15,88,178,118,146,0,0 // addps 0x9276(%edx),%xmm6
+ .byte 15,40,186,134,146,0,0 // movaps 0x9286(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -67827,21 +57317,21 @@ _sk_parametric_r_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,198,203,0,0 // movaps 0xcbc6(%edx),%xmm6
+ .byte 15,40,178,182,143,0,0 // movaps 0x8fb6(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,166,206,0,0 // addps 0xcea6(%edx),%xmm5
- .byte 15,40,186,182,206,0,0 // movaps 0xceb6(%edx),%xmm7
+ .byte 15,88,170,150,146,0,0 // addps 0x9296(%edx),%xmm5
+ .byte 15,40,186,166,146,0,0 // movaps 0x92a6(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,198,206,0,0 // movaps 0xcec6(%edx),%xmm7
+ .byte 15,40,186,182,146,0,0 // movaps 0x92b6(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,214,206,0,0 // movaps 0xced6(%edx),%xmm0
+ .byte 15,40,130,198,146,0,0 // movaps 0x92c6(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,230,206,0,0 // mulps 0xcee6(%edx),%xmm0
+ .byte 15,89,130,214,146,0,0 // mulps 0x92d6(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -67895,15 +57385,15 @@ _sk_parametric_g_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,15,205,0,0 // mulps 0xcd0f(%edx),%xmm5
- .byte 15,84,178,31,205,0,0 // andps 0xcd1f(%edx),%xmm6
- .byte 15,86,178,127,202,0,0 // orps 0xca7f(%edx),%xmm6
- .byte 15,88,170,47,205,0,0 // addps 0xcd2f(%edx),%xmm5
- .byte 15,40,186,63,205,0,0 // movaps 0xcd3f(%edx),%xmm7
+ .byte 15,89,170,255,144,0,0 // mulps 0x90ff(%edx),%xmm5
+ .byte 15,84,178,15,145,0,0 // andps 0x910f(%edx),%xmm6
+ .byte 15,86,178,111,142,0,0 // orps 0x8e6f(%edx),%xmm6
+ .byte 15,88,170,31,145,0,0 // addps 0x911f(%edx),%xmm5
+ .byte 15,40,186,47,145,0,0 // movaps 0x912f(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,79,205,0,0 // addps 0xcd4f(%edx),%xmm6
- .byte 15,40,186,95,205,0,0 // movaps 0xcd5f(%edx),%xmm7
+ .byte 15,88,178,63,145,0,0 // addps 0x913f(%edx),%xmm6
+ .byte 15,40,186,79,145,0,0 // movaps 0x914f(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -67913,21 +57403,21 @@ _sk_parametric_g_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,143,202,0,0 // movaps 0xca8f(%edx),%xmm6
+ .byte 15,40,178,127,142,0,0 // movaps 0x8e7f(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,111,205,0,0 // addps 0xcd6f(%edx),%xmm5
- .byte 15,40,186,127,205,0,0 // movaps 0xcd7f(%edx),%xmm7
+ .byte 15,88,170,95,145,0,0 // addps 0x915f(%edx),%xmm5
+ .byte 15,40,186,111,145,0,0 // movaps 0x916f(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,143,205,0,0 // movaps 0xcd8f(%edx),%xmm7
+ .byte 15,40,186,127,145,0,0 // movaps 0x917f(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,159,205,0,0 // movaps 0xcd9f(%edx),%xmm0
+ .byte 15,40,130,143,145,0,0 // movaps 0x918f(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,175,205,0,0 // mulps 0xcdaf(%edx),%xmm0
+ .byte 15,89,130,159,145,0,0 // mulps 0x919f(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -67980,15 +57470,15 @@ _sk_parametric_b_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,219,203,0,0 // mulps 0xcbdb(%edx),%xmm5
- .byte 15,84,178,235,203,0,0 // andps 0xcbeb(%edx),%xmm6
- .byte 15,86,178,75,201,0,0 // orps 0xc94b(%edx),%xmm6
- .byte 15,88,170,251,203,0,0 // addps 0xcbfb(%edx),%xmm5
- .byte 15,40,186,11,204,0,0 // movaps 0xcc0b(%edx),%xmm7
+ .byte 15,89,170,203,143,0,0 // mulps 0x8fcb(%edx),%xmm5
+ .byte 15,84,178,219,143,0,0 // andps 0x8fdb(%edx),%xmm6
+ .byte 15,86,178,59,141,0,0 // orps 0x8d3b(%edx),%xmm6
+ .byte 15,88,170,235,143,0,0 // addps 0x8feb(%edx),%xmm5
+ .byte 15,40,186,251,143,0,0 // movaps 0x8ffb(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,27,204,0,0 // addps 0xcc1b(%edx),%xmm6
- .byte 15,40,186,43,204,0,0 // movaps 0xcc2b(%edx),%xmm7
+ .byte 15,88,178,11,144,0,0 // addps 0x900b(%edx),%xmm6
+ .byte 15,40,186,27,144,0,0 // movaps 0x901b(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -67998,21 +57488,21 @@ _sk_parametric_b_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,91,201,0,0 // movaps 0xc95b(%edx),%xmm6
+ .byte 15,40,178,75,141,0,0 // movaps 0x8d4b(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,59,204,0,0 // addps 0xcc3b(%edx),%xmm5
- .byte 15,40,186,75,204,0,0 // movaps 0xcc4b(%edx),%xmm7
+ .byte 15,88,170,43,144,0,0 // addps 0x902b(%edx),%xmm5
+ .byte 15,40,186,59,144,0,0 // movaps 0x903b(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,91,204,0,0 // movaps 0xcc5b(%edx),%xmm7
+ .byte 15,40,186,75,144,0,0 // movaps 0x904b(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,107,204,0,0 // movaps 0xcc6b(%edx),%xmm0
+ .byte 15,40,130,91,144,0,0 // movaps 0x905b(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,123,204,0,0 // mulps 0xcc7b(%edx),%xmm0
+ .byte 15,89,130,107,144,0,0 // mulps 0x906b(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -68065,15 +57555,15 @@ _sk_parametric_a_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,167,202,0,0 // mulps 0xcaa7(%edx),%xmm5
- .byte 15,84,178,183,202,0,0 // andps 0xcab7(%edx),%xmm6
- .byte 15,86,178,23,200,0,0 // orps 0xc817(%edx),%xmm6
- .byte 15,88,170,199,202,0,0 // addps 0xcac7(%edx),%xmm5
- .byte 15,40,186,215,202,0,0 // movaps 0xcad7(%edx),%xmm7
+ .byte 15,89,170,151,142,0,0 // mulps 0x8e97(%edx),%xmm5
+ .byte 15,84,178,167,142,0,0 // andps 0x8ea7(%edx),%xmm6
+ .byte 15,86,178,7,140,0,0 // orps 0x8c07(%edx),%xmm6
+ .byte 15,88,170,183,142,0,0 // addps 0x8eb7(%edx),%xmm5
+ .byte 15,40,186,199,142,0,0 // movaps 0x8ec7(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,231,202,0,0 // addps 0xcae7(%edx),%xmm6
- .byte 15,40,186,247,202,0,0 // movaps 0xcaf7(%edx),%xmm7
+ .byte 15,88,178,215,142,0,0 // addps 0x8ed7(%edx),%xmm6
+ .byte 15,40,186,231,142,0,0 // movaps 0x8ee7(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -68083,21 +57573,21 @@ _sk_parametric_a_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,39,200,0,0 // movaps 0xc827(%edx),%xmm6
+ .byte 15,40,178,23,140,0,0 // movaps 0x8c17(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,7,203,0,0 // addps 0xcb07(%edx),%xmm5
- .byte 15,40,186,23,203,0,0 // movaps 0xcb17(%edx),%xmm7
+ .byte 15,88,170,247,142,0,0 // addps 0x8ef7(%edx),%xmm5
+ .byte 15,40,186,7,143,0,0 // movaps 0x8f07(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,39,203,0,0 // movaps 0xcb27(%edx),%xmm7
+ .byte 15,40,186,23,143,0,0 // movaps 0x8f17(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,55,203,0,0 // movaps 0xcb37(%edx),%xmm0
+ .byte 15,40,130,39,143,0,0 // movaps 0x8f27(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,71,203,0,0 // mulps 0xcb47(%edx),%xmm0
+ .byte 15,89,130,55,143,0,0 // mulps 0x8f37(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -68132,15 +57622,15 @@ _sk_gamma_sse2:
.byte 232,0,0,0,0 // call 3a4a <_sk_gamma_sse2+0x12>
.byte 88 // pop %eax
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,128,118,201,0,0 // mulps 0xc976(%eax),%xmm0
- .byte 15,84,152,134,201,0,0 // andps 0xc986(%eax),%xmm3
- .byte 15,86,152,230,198,0,0 // orps 0xc6e6(%eax),%xmm3
- .byte 15,88,128,150,201,0,0 // addps 0xc996(%eax),%xmm0
+ .byte 15,89,128,102,141,0,0 // mulps 0x8d66(%eax),%xmm0
+ .byte 15,84,152,118,141,0,0 // andps 0x8d76(%eax),%xmm3
+ .byte 15,86,152,214,138,0,0 // orps 0x8ad6(%eax),%xmm3
+ .byte 15,88,128,134,141,0,0 // addps 0x8d86(%eax),%xmm0
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,160,166,201,0,0 // mulps 0xc9a6(%eax),%xmm4
+ .byte 15,89,160,150,141,0,0 // mulps 0x8d96(%eax),%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,152,182,201,0,0 // addps 0xc9b6(%eax),%xmm3
- .byte 15,40,160,198,201,0,0 // movaps 0xc9c6(%eax),%xmm4
+ .byte 15,88,152,166,141,0,0 // addps 0x8da6(%eax),%xmm3
+ .byte 15,40,160,182,141,0,0 // movaps 0x8db6(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -68153,30 +57643,30 @@ _sk_gamma_sse2:
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,227,1 // cmpltps %xmm3,%xmm4
- .byte 15,84,160,246,198,0,0 // andps 0xc6f6(%eax),%xmm4
+ .byte 15,84,160,230,138,0,0 // andps 0x8ae6(%eax),%xmm4
.byte 15,92,220 // subps %xmm4,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,88,128,214,201,0,0 // addps 0xc9d6(%eax),%xmm0
- .byte 15,40,176,246,201,0,0 // movaps 0xc9f6(%eax),%xmm6
+ .byte 15,88,128,198,141,0,0 // addps 0x8dc6(%eax),%xmm0
+ .byte 15,40,176,230,141,0,0 // movaps 0x8de6(%eax),%xmm6
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,168,230,201,0,0 // movaps 0xc9e6(%eax),%xmm5
+ .byte 15,40,168,214,141,0,0 // movaps 0x8dd6(%eax),%xmm5
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,152,6,202,0,0 // movaps 0xca06(%eax),%xmm3
+ .byte 15,40,152,246,141,0,0 // movaps 0x8df6(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,94,230 // divps %xmm6,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,118,201,0,0 // mulps 0xc976(%eax),%xmm0
- .byte 15,84,136,134,201,0,0 // andps 0xc986(%eax),%xmm1
- .byte 15,86,136,230,198,0,0 // orps 0xc6e6(%eax),%xmm1
- .byte 15,88,128,150,201,0,0 // addps 0xc996(%eax),%xmm0
+ .byte 15,89,128,102,141,0,0 // mulps 0x8d66(%eax),%xmm0
+ .byte 15,84,136,118,141,0,0 // andps 0x8d76(%eax),%xmm1
+ .byte 15,86,136,214,138,0,0 // orps 0x8ad6(%eax),%xmm1
+ .byte 15,88,128,134,141,0,0 // addps 0x8d86(%eax),%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,176,166,201,0,0 // mulps 0xc9a6(%eax),%xmm6
+ .byte 15,89,176,150,141,0,0 // mulps 0x8d96(%eax),%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,136,182,201,0,0 // addps 0xc9b6(%eax),%xmm1
- .byte 15,40,176,198,201,0,0 // movaps 0xc9c6(%eax),%xmm6
+ .byte 15,88,136,166,141,0,0 // addps 0x8da6(%eax),%xmm1
+ .byte 15,40,176,182,141,0,0 // movaps 0x8db6(%eax),%xmm6
.byte 15,94,241 // divps %xmm1,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -68184,12 +57674,12 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,241,1 // cmpltps %xmm1,%xmm6
- .byte 15,84,176,246,198,0,0 // andps 0xc6f6(%eax),%xmm6
+ .byte 15,84,176,230,138,0,0 // andps 0x8ae6(%eax),%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,88,128,214,201,0,0 // addps 0xc9d6(%eax),%xmm0
- .byte 15,40,184,246,201,0,0 // movaps 0xc9f6(%eax),%xmm7
+ .byte 15,88,128,198,141,0,0 // addps 0x8dc6(%eax),%xmm0
+ .byte 15,40,184,230,141,0,0 // movaps 0x8de6(%eax),%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -68197,15 +57687,15 @@ _sk_gamma_sse2:
.byte 15,94,207 // divps %xmm7,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,128,118,201,0,0 // mulps 0xc976(%eax),%xmm0
- .byte 15,84,144,134,201,0,0 // andps 0xc986(%eax),%xmm2
- .byte 15,86,144,230,198,0,0 // orps 0xc6e6(%eax),%xmm2
- .byte 15,88,128,150,201,0,0 // addps 0xc996(%eax),%xmm0
- .byte 15,40,176,166,201,0,0 // movaps 0xc9a6(%eax),%xmm6
+ .byte 15,89,128,102,141,0,0 // mulps 0x8d66(%eax),%xmm0
+ .byte 15,84,144,118,141,0,0 // andps 0x8d76(%eax),%xmm2
+ .byte 15,86,144,214,138,0,0 // orps 0x8ad6(%eax),%xmm2
+ .byte 15,88,128,134,141,0,0 // addps 0x8d86(%eax),%xmm0
+ .byte 15,40,176,150,141,0,0 // movaps 0x8d96(%eax),%xmm6
.byte 15,89,242 // mulps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,144,182,201,0,0 // addps 0xc9b6(%eax),%xmm2
- .byte 15,40,176,198,201,0,0 // movaps 0xc9c6(%eax),%xmm6
+ .byte 15,88,144,166,141,0,0 // addps 0x8da6(%eax),%xmm2
+ .byte 15,40,176,182,141,0,0 // movaps 0x8db6(%eax),%xmm6
.byte 15,94,242 // divps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
@@ -68213,18 +57703,18 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,242,1 // cmpltps %xmm2,%xmm6
- .byte 15,84,176,246,198,0,0 // andps 0xc6f6(%eax),%xmm6
+ .byte 15,84,176,230,138,0,0 // andps 0x8ae6(%eax),%xmm6
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,88,128,214,201,0,0 // addps 0xc9d6(%eax),%xmm0
+ .byte 15,88,128,198,141,0,0 // addps 0x8dc6(%eax),%xmm0
.byte 15,89,238 // mulps %xmm6,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,40,144,246,201,0,0 // movaps 0xc9f6(%eax),%xmm2
+ .byte 15,40,144,230,141,0,0 // movaps 0x8de6(%eax),%xmm2
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,94,218 // divps %xmm2,%xmm3
.byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,40,128,22,202,0,0 // movaps 0xca16(%eax),%xmm0
+ .byte 15,40,128,6,142,0,0 // movaps 0x8e06(%eax),%xmm0
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,89,216 // mulps %xmm0,%xmm3
@@ -68253,29 +57743,29 @@ _sk_lab_to_xyz_sse2:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 232,0,0,0,0 // call 3c32 <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,62,200,0,0 // mulps 0xc83e(%eax),%xmm2
- .byte 15,40,160,222,197,0,0 // movaps 0xc5de(%eax),%xmm4
+ .byte 15,89,144,46,140,0,0 // mulps 0x8c2e(%eax),%xmm2
+ .byte 15,40,160,206,137,0,0 // movaps 0x89ce(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,78,200,0,0 // movaps 0xc84e(%eax),%xmm5
+ .byte 15,40,168,62,140,0,0 // movaps 0x8c3e(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,94,200,0,0 // addps 0xc85e(%eax),%xmm2
- .byte 15,89,144,110,200,0,0 // mulps 0xc86e(%eax),%xmm2
- .byte 15,89,136,126,200,0,0 // mulps 0xc87e(%eax),%xmm1
+ .byte 15,88,144,78,140,0,0 // addps 0x8c4e(%eax),%xmm2
+ .byte 15,89,144,94,140,0,0 // mulps 0x8c5e(%eax),%xmm2
+ .byte 15,89,136,110,140,0,0 // mulps 0x8c6e(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,142,200,0,0 // mulps 0xc88e(%eax),%xmm3
+ .byte 15,89,152,126,140,0,0 // mulps 0x8c7e(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,158,200,0,0 // movaps 0xc89e(%eax),%xmm3
+ .byte 15,40,152,142,140,0,0 // movaps 0x8c8e(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,174,200,0,0 // movaps 0xc8ae(%eax),%xmm6
+ .byte 15,40,176,158,140,0,0 // movaps 0x8c9e(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,190,200,0,0 // movaps 0xc8be(%eax),%xmm7
+ .byte 15,40,184,174,140,0,0 // movaps 0x8cae(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -68300,8 +57790,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,85,221 // andnps %xmm5,%xmm3
.byte 15,86,216 // orps %xmm0,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,206,200,0,0 // mulps 0xc8ce(%eax),%xmm4
- .byte 15,89,152,222,200,0,0 // mulps 0xc8de(%eax),%xmm3
+ .byte 15,89,160,190,140,0,0 // mulps 0x8cbe(%eax),%xmm4
+ .byte 15,89,152,206,140,0,0 // mulps 0x8cce(%eax),%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -68339,9 +57829,9 @@ _sk_load_a8_sse2:
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,222,196,0,0 // pand 0xc4de(%edx),%xmm0
+ .byte 102,15,219,130,206,136,0,0 // pand 0x88ce(%edx),%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,14,198,0,0 // mulps 0xc60e(%edx),%xmm3
+ .byte 15,89,154,254,137,0,0 // mulps 0x89fe(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -68406,9 +57896,9 @@ _sk_load_a8_dst_sse2:
.byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,10,196,0,0 // pand 0xc40a(%edx),%xmm4
+ .byte 102,15,219,162,250,135,0,0 // pand 0x87fa(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,58,197,0,0 // mulps 0xc53a(%edx),%xmm4
+ .byte 15,89,162,42,137,0,0 // mulps 0x892a(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -68486,7 +57976,7 @@ _sk_gather_a8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,61,196,0,0 // mulps 0xc43d(%ecx),%xmm3
+ .byte 15,89,153,45,136,0,0 // mulps 0x882d(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -68520,7 +58010,7 @@ _sk_store_a8_sse2:
.byte 15,175,81,4 // imul 0x4(%ecx),%edx
.byte 3,23 // add (%edi),%edx
.byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,166,217,194,0,0 // movaps 0xc2d9(%esi),%xmm4
+ .byte 15,40,166,201,134,0,0 // movaps 0x86c9(%esi),%xmm4
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -68555,7 +58045,7 @@ _sk_store_a8_sse2:
.byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx
.byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,233,197,0,0 // pand 0xc5e9(%esi),%xmm4
+ .byte 102,15,219,166,217,137,0,0 // pand 0x89d9(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
@@ -68591,12 +58081,12 @@ _sk_load_g8_sse2:
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,23,194,0,0 // pand 0xc217(%edx),%xmm0
+ .byte 102,15,219,130,7,134,0,0 // pand 0x8607(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,71,195,0,0 // mulps 0xc347(%edx),%xmm0
+ .byte 15,89,130,55,135,0,0 // mulps 0x8737(%edx),%xmm0
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,87,193,0,0 // movaps 0xc157(%edx),%xmm3
+ .byte 15,40,154,71,133,0,0 // movaps 0x8547(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 86 // push %esi
@@ -68654,13 +58144,13 @@ _sk_load_g8_dst_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,107,193,0,0 // pand 0xc16b(%edx),%xmm4
+ .byte 102,15,219,162,91,133,0,0 // pand 0x855b(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,155,194,0,0 // mulps 0xc29b(%edx),%xmm4
+ .byte 15,89,162,139,134,0,0 // mulps 0x868b(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
.byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,171,192,0,0 // movaps 0xc0ab(%edx),%xmm4
+ .byte 15,40,162,155,132,0,0 // movaps 0x849b(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -68739,10 +58229,10 @@ _sk_gather_g8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,116,193,0,0 // mulps 0xc174(%ecx),%xmm0
+ .byte 15,89,129,100,133,0,0 // mulps 0x8564(%ecx),%xmm0
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,132,191,0,0 // movaps 0xbf84(%ecx),%xmm3
+ .byte 15,40,153,116,131,0,0 // movaps 0x8374(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 82 // push %edx
@@ -68779,20 +58269,20 @@ _sk_load_565_sse2:
.byte 117,97 // jne 4285 <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,57,193,0,0 // movdqa 0xc139(%edx),%xmm0
+ .byte 102,15,111,130,41,133,0,0 // movdqa 0x8529(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,73,193,0,0 // mulps 0xc149(%edx),%xmm0
- .byte 102,15,111,138,89,193,0,0 // movdqa 0xc159(%edx),%xmm1
+ .byte 15,89,130,57,133,0,0 // mulps 0x8539(%edx),%xmm0
+ .byte 102,15,111,138,73,133,0,0 // movdqa 0x8549(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,105,193,0,0 // mulps 0xc169(%edx),%xmm1
- .byte 102,15,219,146,121,193,0,0 // pand 0xc179(%edx),%xmm2
+ .byte 15,89,138,89,133,0,0 // mulps 0x8559(%edx),%xmm1
+ .byte 102,15,219,146,105,133,0,0 // pand 0x8569(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,137,193,0,0 // mulps 0xc189(%edx),%xmm2
+ .byte 15,89,146,121,133,0,0 // mulps 0x8579(%edx),%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,57,191,0,0 // movaps 0xbf39(%edx),%xmm3
+ .byte 15,40,154,41,131,0,0 // movaps 0x8329(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -68846,21 +58336,21 @@ _sk_load_565_dst_sse2:
.byte 117,113 // jne 4365 <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,105,192,0,0 // movdqa 0xc069(%edx),%xmm5
+ .byte 102,15,111,170,89,132,0,0 // movdqa 0x8459(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,121,192,0,0 // mulps 0xc079(%edx),%xmm5
+ .byte 15,89,170,105,132,0,0 // mulps 0x8469(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,137,192,0,0 // movdqa 0xc089(%edx),%xmm5
+ .byte 102,15,111,170,121,132,0,0 // movdqa 0x8479(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,153,192,0,0 // mulps 0xc099(%edx),%xmm5
+ .byte 15,89,170,137,132,0,0 // mulps 0x8489(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,169,192,0,0 // pand 0xc0a9(%edx),%xmm4
+ .byte 102,15,219,162,153,132,0,0 // pand 0x8499(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,185,192,0,0 // mulps 0xc0b9(%edx),%xmm4
+ .byte 15,89,162,169,132,0,0 // mulps 0x84a9(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,105,190,0,0 // movaps 0xbe69(%edx),%xmm4
+ .byte 15,40,162,89,130,0,0 // movaps 0x8259(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -68932,20 +58422,20 @@ _sk_gather_565_sse2:
.byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,23,191,0,0 // movdqa 0xbf17(%edx),%xmm0
+ .byte 102,15,111,130,7,131,0,0 // movdqa 0x8307(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,39,191,0,0 // mulps 0xbf27(%edx),%xmm0
- .byte 102,15,111,138,55,191,0,0 // movdqa 0xbf37(%edx),%xmm1
+ .byte 15,89,130,23,131,0,0 // mulps 0x8317(%edx),%xmm0
+ .byte 102,15,111,138,39,131,0,0 // movdqa 0x8327(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,71,191,0,0 // mulps 0xbf47(%edx),%xmm1
- .byte 102,15,219,146,87,191,0,0 // pand 0xbf57(%edx),%xmm2
+ .byte 15,89,138,55,131,0,0 // mulps 0x8337(%edx),%xmm1
+ .byte 102,15,219,146,71,131,0,0 // pand 0x8347(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,103,191,0,0 // mulps 0xbf67(%edx),%xmm2
+ .byte 15,89,146,87,131,0,0 // mulps 0x8357(%edx),%xmm2
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,23,189,0,0 // movaps 0xbd17(%edx),%xmm3
+ .byte 15,40,154,7,129,0,0 // movaps 0x8107(%edx),%xmm3
.byte 81 // push %ecx
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
@@ -68973,8 +58463,8 @@ _sk_store_565_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,148,192,0,0 // movaps 0xc094(%edi),%xmm4
- .byte 15,40,175,164,192,0,0 // movaps 0xc0a4(%edi),%xmm5
+ .byte 15,40,167,132,132,0,0 // movaps 0x8484(%edi),%xmm4
+ .byte 15,40,175,148,132,0,0 // movaps 0x8494(%edi),%xmm5
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,89,244 // mulps %xmm4,%xmm6
@@ -69054,21 +58544,21 @@ _sk_load_4444_sse2:
.byte 117,112 // jne 460b <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,210,191,0,0 // movdqa 0xbfd2(%edx),%xmm0
+ .byte 102,15,111,130,194,131,0,0 // movdqa 0x83c2(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,226,191,0,0 // mulps 0xbfe2(%edx),%xmm0
- .byte 102,15,111,138,242,191,0,0 // movdqa 0xbff2(%edx),%xmm1
+ .byte 15,89,130,210,131,0,0 // mulps 0x83d2(%edx),%xmm0
+ .byte 102,15,111,138,226,131,0,0 // movdqa 0x83e2(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,2,192,0,0 // mulps 0xc002(%edx),%xmm1
- .byte 102,15,111,146,18,192,0,0 // movdqa 0xc012(%edx),%xmm2
+ .byte 15,89,138,242,131,0,0 // mulps 0x83f2(%edx),%xmm1
+ .byte 102,15,111,146,2,132,0,0 // movdqa 0x8402(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,34,192,0,0 // mulps 0xc022(%edx),%xmm2
- .byte 102,15,219,154,50,192,0,0 // pand 0xc032(%edx),%xmm3
+ .byte 15,89,146,18,132,0,0 // mulps 0x8412(%edx),%xmm2
+ .byte 102,15,219,154,34,132,0,0 // pand 0x8422(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,66,192,0,0 // mulps 0xc042(%edx),%xmm3
+ .byte 15,89,154,50,132,0,0 // mulps 0x8432(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -69124,24 +58614,24 @@ _sk_load_4444_dst_sse2:
.byte 15,133,128,0,0,0 // jne 46fe <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,243,190,0,0 // movdqa 0xbef3(%edx),%xmm5
+ .byte 102,15,111,170,227,130,0,0 // movdqa 0x82e3(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,3,191,0,0 // mulps 0xbf03(%edx),%xmm5
+ .byte 15,89,170,243,130,0,0 // mulps 0x82f3(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,19,191,0,0 // movdqa 0xbf13(%edx),%xmm5
+ .byte 102,15,111,170,3,131,0,0 // movdqa 0x8303(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,35,191,0,0 // mulps 0xbf23(%edx),%xmm5
+ .byte 15,89,170,19,131,0,0 // mulps 0x8313(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,51,191,0,0 // movdqa 0xbf33(%edx),%xmm5
+ .byte 102,15,111,170,35,131,0,0 // movdqa 0x8323(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,67,191,0,0 // mulps 0xbf43(%edx),%xmm5
+ .byte 15,89,170,51,131,0,0 // mulps 0x8333(%edx),%xmm5
.byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,83,191,0,0 // pand 0xbf53(%edx),%xmm4
+ .byte 102,15,219,162,67,131,0,0 // pand 0x8343(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,99,191,0,0 // mulps 0xbf63(%edx),%xmm4
+ .byte 15,89,162,83,131,0,0 // mulps 0x8353(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -69213,21 +58703,21 @@ _sk_gather_4444_sse2:
.byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,133,189,0,0 // movdqa 0xbd85(%ecx),%xmm0
+ .byte 102,15,111,129,117,129,0,0 // movdqa 0x8175(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,149,189,0,0 // mulps 0xbd95(%ecx),%xmm0
- .byte 102,15,111,137,165,189,0,0 // movdqa 0xbda5(%ecx),%xmm1
+ .byte 15,89,129,133,129,0,0 // mulps 0x8185(%ecx),%xmm0
+ .byte 102,15,111,137,149,129,0,0 // movdqa 0x8195(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,181,189,0,0 // mulps 0xbdb5(%ecx),%xmm1
- .byte 102,15,111,145,197,189,0,0 // movdqa 0xbdc5(%ecx),%xmm2
+ .byte 15,89,137,165,129,0,0 // mulps 0x81a5(%ecx),%xmm1
+ .byte 102,15,111,145,181,129,0,0 // movdqa 0x81b5(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,213,189,0,0 // mulps 0xbdd5(%ecx),%xmm2
- .byte 102,15,219,153,229,189,0,0 // pand 0xbde5(%ecx),%xmm3
+ .byte 15,89,145,197,129,0,0 // mulps 0x81c5(%ecx),%xmm2
+ .byte 102,15,219,153,213,129,0,0 // pand 0x81d5(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,245,189,0,0 // mulps 0xbdf5(%ecx),%xmm3
+ .byte 15,89,153,229,129,0,0 // mulps 0x81e5(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -69257,7 +58747,7 @@ _sk_store_4444_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,136,189,0,0 // movaps 0xbd88(%edi),%xmm4
+ .byte 15,40,167,120,129,0,0 // movaps 0x8178(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -69342,11 +58832,11 @@ _sk_load_8888_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,102 // jne 49bd <_sk_load_8888_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,199,184,0,0 // movdqa 0xb8c7(%edx),%xmm2
+ .byte 102,15,111,146,183,124,0,0 // movdqa 0x7cb7(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,247,185,0,0 // movaps 0xb9f7(%edx),%xmm4
+ .byte 15,40,162,231,125,0,0 // movaps 0x7de7(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -69411,11 +58901,11 @@ _sk_load_8888_dst_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,118 // jne 4a94 <_sk_load_8888_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,0,184,0,0 // movdqa 0xb800(%edx),%xmm5
+ .byte 102,15,111,170,240,123,0,0 // movdqa 0x7bf0(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,48,185,0,0 // movaps 0xb930(%edx),%xmm7
+ .byte 15,40,186,32,125,0,0 // movaps 0x7d20(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -69497,11 +58987,11 @@ _sk_gather_8888_sse2:
.byte 102,15,98,202 // punpckldq %xmm2,%xmm1
.byte 102,15,98,216 // punpckldq %xmm0,%xmm3
.byte 102,15,108,217 // punpcklqdq %xmm1,%xmm3
- .byte 102,15,111,145,189,182,0,0 // movdqa 0xb6bd(%ecx),%xmm2
+ .byte 102,15,111,145,173,122,0,0 // movdqa 0x7aad(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,237,183,0,0 // movaps 0xb7ed(%ecx),%xmm4
+ .byte 15,40,161,221,123,0,0 // movaps 0x7bdd(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -69545,7 +59035,7 @@ _sk_store_8888_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,82,182,0,0 // movaps 0xb652(%edi),%xmm4
+ .byte 15,40,167,66,122,0,0 // movaps 0x7a42(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -69616,11 +59106,11 @@ _sk_load_bgra_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,102 // jne 4cf8 <_sk_load_bgra_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,140,181,0,0 // movdqa 0xb58c(%edx),%xmm0
+ .byte 102,15,111,130,124,121,0,0 // movdqa 0x797c(%edx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,188,182,0,0 // movaps 0xb6bc(%edx),%xmm4
+ .byte 15,40,162,172,122,0,0 // movaps 0x7aac(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -69685,11 +59175,11 @@ _sk_load_bgra_dst_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,118 // jne 4dcf <_sk_load_bgra_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,197,180,0,0 // movdqa 0xb4c5(%edx),%xmm5
+ .byte 102,15,111,170,181,120,0,0 // movdqa 0x78b5(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,245,181,0,0 // movaps 0xb5f5(%edx),%xmm7
+ .byte 15,40,186,229,121,0,0 // movaps 0x79e5(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -69771,11 +59261,11 @@ _sk_gather_bgra_sse2:
.byte 102,15,98,202 // punpckldq %xmm2,%xmm1
.byte 102,15,98,216 // punpckldq %xmm0,%xmm3
.byte 102,15,108,217 // punpcklqdq %xmm1,%xmm3
- .byte 102,15,111,129,130,179,0,0 // movdqa 0xb382(%ecx),%xmm0
+ .byte 102,15,111,129,114,119,0,0 // movdqa 0x7772(%ecx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,178,180,0,0 // movaps 0xb4b2(%ecx),%xmm4
+ .byte 15,40,161,162,120,0,0 // movaps 0x78a2(%ecx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -69819,7 +59309,7 @@ _sk_store_bgra_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,23,179,0,0 // movaps 0xb317(%edi),%xmm4
+ .byte 15,40,167,7,119,0,0 // movaps 0x7707(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -69918,11 +59408,11 @@ _sk_load_f16_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,170,49,182,0,0 // movdqa 0xb631(%edx),%xmm5
+ .byte 102,15,111,170,33,122,0,0 // movdqa 0x7a21(%edx),%xmm5
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,138,65,182,0,0 // pand 0xb641(%edx),%xmm1
- .byte 102,15,111,130,81,182,0,0 // movdqa 0xb651(%edx),%xmm0
+ .byte 102,15,219,138,49,122,0,0 // pand 0x7a31(%edx),%xmm1
+ .byte 102,15,111,130,65,122,0,0 // movdqa 0x7a41(%edx),%xmm0
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
@@ -69934,7 +59424,7 @@ _sk_load_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,154,65,182,0,0 // movdqa 0xb641(%edx),%xmm3
+ .byte 102,15,111,154,49,122,0,0 // movdqa 0x7a31(%edx),%xmm3
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0
@@ -69947,7 +59437,7 @@ _sk_load_f16_sse2:
.byte 102,15,219,253 // pand %xmm5,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,146,81,182,0,0 // movdqa 0xb651(%edx),%xmm2
+ .byte 102,15,111,146,65,122,0,0 // movdqa 0x7a41(%edx),%xmm2
.byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -69962,7 +59452,7 @@ _sk_load_f16_sse2:
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,154,97,182,0,0 // movdqa 0xb661(%edx),%xmm3
+ .byte 102,15,111,154,81,122,0,0 // movdqa 0x7a51(%edx),%xmm3
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,15,254,227 // paddd %xmm3,%xmm4
.byte 102,15,254,195 // paddd %xmm3,%xmm0
@@ -70051,18 +59541,18 @@ _sk_load_f16_dst_sse2:
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,186,20,180,0,0 // movdqa 0xb414(%edx),%xmm7
+ .byte 102,15,111,186,4,120,0,0 // movdqa 0x7804(%edx),%xmm7
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,154,36,180,0,0 // movdqa 0xb424(%edx),%xmm3
+ .byte 102,15,111,154,20,120,0,0 // movdqa 0x7814(%edx),%xmm3
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 102,15,111,162,52,180,0,0 // movdqa 0xb434(%edx),%xmm4
+ .byte 102,15,111,162,36,120,0,0 // movdqa 0x7824(%edx),%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,68,180,0,0 // movdqa 0xb444(%edx),%xmm2
+ .byte 102,15,111,146,52,120,0,0 // movdqa 0x7834(%edx),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,223,233 // pandn %xmm1,%xmm5
@@ -70195,11 +59685,11 @@ _sk_gather_f16_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,169,168,177,0,0 // movdqa 0xb1a8(%ecx),%xmm5
+ .byte 102,15,111,169,152,117,0,0 // movdqa 0x7598(%ecx),%xmm5
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,137,184,177,0,0 // pand 0xb1b8(%ecx),%xmm1
- .byte 102,15,111,129,200,177,0,0 // movdqa 0xb1c8(%ecx),%xmm0
+ .byte 102,15,219,137,168,117,0,0 // pand 0x75a8(%ecx),%xmm1
+ .byte 102,15,111,129,184,117,0,0 // movdqa 0x75b8(%ecx),%xmm0
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
@@ -70210,7 +59700,7 @@ _sk_gather_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,153,184,177,0,0 // movdqa 0xb1b8(%ecx),%xmm3
+ .byte 102,15,111,153,168,117,0,0 // movdqa 0x75a8(%ecx),%xmm3
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
@@ -70224,7 +59714,7 @@ _sk_gather_f16_sse2:
.byte 102,15,219,253 // pand %xmm5,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,145,200,177,0,0 // movdqa 0xb1c8(%ecx),%xmm2
+ .byte 102,15,111,145,184,117,0,0 // movdqa 0x75b8(%ecx),%xmm2
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
@@ -70233,12 +59723,12 @@ _sk_gather_f16_sse2:
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,15,97,254 // punpcklwd %xmm6,%xmm7
.byte 102,15,219,239 // pand %xmm7,%xmm5
- .byte 102,15,219,185,184,177,0,0 // pand 0xb1b8(%ecx),%xmm7
+ .byte 102,15,219,185,168,117,0,0 // pand 0x75a8(%ecx),%xmm7
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,169,216,177,0,0 // movdqa 0xb1d8(%ecx),%xmm5
+ .byte 102,15,111,169,200,117,0,0 // movdqa 0x75c8(%ecx),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
.byte 102,15,254,229 // paddd %xmm5,%xmm4
.byte 102,15,254,197 // paddd %xmm5,%xmm0
@@ -70277,22 +59767,22 @@ _sk_store_f16_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 232,0,0,0,0 // call 55fd <_sk_store_f16_sse2+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,152,35,176,0,0 // movdqa 0xb023(%eax),%xmm3
+ .byte 102,15,111,152,19,116,0,0 // movdqa 0x7413(%eax),%xmm3
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,111,136,83,176,0,0 // movdqa 0xb053(%eax),%xmm1
+ .byte 102,15,111,136,67,116,0,0 // movdqa 0x7443(%eax),%xmm1
.byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,114,246,3 // pslld $0x3,%xmm6
.byte 102,15,219,241 // pand %xmm1,%xmm6
.byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 102,15,111,184,51,176,0,0 // movdqa 0xb033(%eax),%xmm7
+ .byte 102,15,111,184,35,116,0,0 // movdqa 0x7423(%eax),%xmm7
.byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
.byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,168,67,176,0,0 // movdqa 0xb043(%eax),%xmm5
+ .byte 102,15,111,168,51,116,0,0 // movdqa 0x7433(%eax),%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
- .byte 102,15,111,128,211,172,0,0 // movdqa 0xacd3(%eax),%xmm0
+ .byte 102,15,111,128,195,112,0,0 // movdqa 0x70c3(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,254,240 // paddd %xmm0,%xmm6
.byte 102,15,114,230,16 // psrad $0x10,%xmm6
@@ -70426,7 +59916,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,230,171,0,0 // movaps 0xabe6(%edx),%xmm4
+ .byte 15,40,162,214,111,0,0 // movaps 0x6fd6(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -70530,7 +60020,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,127,170,0,0 // movaps 0xaa7f(%edx),%xmm5
+ .byte 15,40,170,111,110,0,0 // movaps 0x6e6f(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -70556,7 +60046,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,15,168,0,0 // movaps 0xa80f(%edx),%xmm3
+ .byte 15,40,154,255,107,0,0 // movaps 0x6bff(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -70603,7 +60093,7 @@ _sk_store_u16_be_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,183,219,171,0,0 // movaps 0xabdb(%edi),%xmm6
+ .byte 15,40,183,203,111,0,0 // movaps 0x6fcb(%edi),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 193,230,2 // shl $0x2,%esi
.byte 15,40,224 // movaps %xmm0,%xmm4
@@ -70935,7 +60425,7 @@ _sk_repeat_x_sse2:
.byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
.byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,177,37,163,0,0 // andps 0xa325(%ecx),%xmm6
+ .byte 15,84,177,21,103,0,0 // andps 0x6715(%ecx),%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -70973,7 +60463,7 @@ _sk_repeat_y_sse2:
.byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
.byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,177,191,162,0,0 // andps 0xa2bf(%ecx),%xmm6
+ .byte 15,84,177,175,102,0,0 // andps 0x66af(%ecx),%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -71009,13 +60499,13 @@ _sk_mirror_x_sse2:
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 243,15,89,177,89,170,0,0 // mulss 0xaa59(%ecx),%xmm6
+ .byte 243,15,89,177,169,109,0,0 // mulss 0x6da9(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 243,15,91,254 // cvttps2dq %xmm6,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,177,89,162,0,0 // andps 0xa259(%ecx),%xmm6
+ .byte 15,84,177,73,102,0,0 // andps 0x6649(%ecx),%xmm6
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 243,15,88,237 // addss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -71055,13 +60545,13 @@ _sk_mirror_y_sse2:
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,204 // subps %xmm4,%xmm1
- .byte 243,15,89,177,212,169,0,0 // mulss 0xa9d4(%ecx),%xmm6
+ .byte 243,15,89,177,36,109,0,0 // mulss 0x6d24(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 243,15,91,254 // cvttps2dq %xmm6,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,177,212,161,0,0 // andps 0xa1d4(%ecx),%xmm6
+ .byte 15,84,177,196,101,0,0 // andps 0x65c4(%ecx),%xmm6
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 243,15,88,237 // addss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -71097,7 +60587,7 @@ _sk_clamp_x_1_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,79,161,0,0 // minps 0xa14f(%eax),%xmm4
+ .byte 15,93,160,63,101,0,0 // minps 0x653f(%eax),%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -71122,7 +60612,7 @@ _sk_repeat_x_1_sse2:
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,84,168,31,161,0,0 // andps 0xa11f(%eax),%xmm5
+ .byte 15,84,168,15,101,0,0 // andps 0x650f(%eax),%xmm5
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
@@ -71144,14 +60634,14 @@ _sk_mirror_x_1_sse2:
.byte 232,0,0,0,0 // call 605c <_sk_mirror_x_1_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 15,40,161,84,161,0,0 // movaps 0xa154(%ecx),%xmm4
+ .byte 15,40,161,68,101,0,0 // movaps 0x6544(%ecx),%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,169,212,160,0,0 // movaps 0xa0d4(%ecx),%xmm5
+ .byte 15,40,169,196,100,0,0 // movaps 0x64c4(%ecx),%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,169,228,160,0,0 // andps 0xa0e4(%ecx),%xmm5
+ .byte 15,84,169,212,100,0,0 // andps 0x64d4(%ecx),%xmm5
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
@@ -71179,10 +60669,10 @@ _sk_luminance_to_alpha_sse2:
.byte 232,0,0,0,0 // call 60ba <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,182,165,0,0 // mulps 0xa5b6(%eax),%xmm0
- .byte 15,89,136,198,165,0,0 // mulps 0xa5c6(%eax),%xmm1
+ .byte 15,89,128,166,105,0,0 // mulps 0x69a6(%eax),%xmm0
+ .byte 15,89,136,182,105,0,0 // mulps 0x69b6(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,214,165,0,0 // mulps 0xa5d6(%eax),%xmm3
+ .byte 15,89,152,198,105,0,0 // mulps 0x69c6(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -71583,12 +61073,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,73,161,0,0 // movdqa 0xa149(%edx),%xmm2
+ .byte 102,15,111,146,57,101,0,0 // movdqa 0x6539(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,9,159,0,0 // por 0x9f09(%edx),%xmm2
+ .byte 102,15,235,146,249,98,0,0 // por 0x62f9(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,89,161,0,0 // por 0xa159(%edx),%xmm1
- .byte 15,88,138,105,161,0,0 // addps 0xa169(%edx),%xmm1
+ .byte 102,15,235,138,73,101,0,0 // por 0x6549(%edx),%xmm1
+ .byte 15,88,138,89,101,0,0 // addps 0x6559(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -71698,15 +61188,15 @@ _sk_gauss_a_to_rgba_sse2:
.byte 232,0,0,0,0 // call 6717 <_sk_gauss_a_to_rgba_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,185,159,0,0 // movaps 0x9fb9(%eax),%xmm0
+ .byte 15,40,128,169,99,0,0 // movaps 0x63a9(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,201,159,0,0 // addps 0x9fc9(%eax),%xmm0
+ .byte 15,88,128,185,99,0,0 // addps 0x63b9(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,217,159,0,0 // addps 0x9fd9(%eax),%xmm0
+ .byte 15,88,128,201,99,0,0 // addps 0x63c9(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,233,159,0,0 // addps 0x9fe9(%eax),%xmm0
+ .byte 15,88,128,217,99,0,0 // addps 0x63d9(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,249,159,0,0 // addps 0x9ff9(%eax),%xmm0
+ .byte 15,88,128,233,99,0,0 // addps 0x63e9(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
@@ -71914,30 +61404,30 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,119,157,0,0 // movaps 0x9d77(%eax),%xmm0
+ .byte 15,40,128,103,97,0,0 // movaps 0x6167(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,135,157,0,0 // addps 0x9d87(%eax),%xmm0
+ .byte 15,88,128,119,97,0,0 // addps 0x6177(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,151,157,0,0 // addps 0x9d97(%eax),%xmm0
+ .byte 15,88,128,135,97,0,0 // addps 0x6187(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,167,157,0,0 // addps 0x9da7(%eax),%xmm0
+ .byte 15,88,128,151,97,0,0 // addps 0x6197(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,183,157,0,0 // movaps 0x9db7(%eax),%xmm6
+ .byte 15,40,176,167,97,0,0 // movaps 0x61a7(%eax),%xmm6
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,135,151,0,0 // movaps 0x9787(%eax),%xmm0
+ .byte 15,40,128,119,91,0,0 // movaps 0x5b77(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,151,151,0,0 // movaps 0x9797(%eax),%xmm5
+ .byte 15,40,168,135,91,0,0 // movaps 0x5b87(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
@@ -72005,8 +61495,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,170,156,0,0 // mulps 0x9caa(%edx),%xmm4
- .byte 15,89,130,186,156,0,0 // mulps 0x9cba(%edx),%xmm0
+ .byte 15,89,162,154,96,0,0 // mulps 0x609a(%edx),%xmm4
+ .byte 15,89,130,170,96,0,0 // mulps 0x60aa(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -72014,11 +61504,11 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,162,90,155,0,0 // xorps 0x9b5a(%edx),%xmm4
+ .byte 15,87,162,74,95,0,0 // xorps 0x5f4a(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,170,106,150,0,0 // mulps 0x966a(%edx),%xmm5
+ .byte 15,89,170,90,90,0,0 // mulps 0x5a5a(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,95,196 // maxps %xmm4,%xmm0
@@ -72056,8 +61546,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,12,156,0,0 // mulps 0x9c0c(%edx),%xmm4
- .byte 15,89,130,28,156,0,0 // mulps 0x9c1c(%edx),%xmm0
+ .byte 15,89,162,252,95,0,0 // mulps 0x5ffc(%edx),%xmm4
+ .byte 15,89,130,12,96,0,0 // mulps 0x600c(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -72065,11 +61555,11 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,162,188,154,0,0 // xorps 0x9abc(%edx),%xmm4
+ .byte 15,87,162,172,94,0,0 // xorps 0x5eac(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,170,204,149,0,0 // mulps 0x95cc(%edx),%xmm5
+ .byte 15,89,170,188,89,0,0 // mulps 0x59bc(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
@@ -72098,7 +61588,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,236 // mulss %xmm4,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,169,148,155,0,0 // mulps 0x9b94(%ecx),%xmm5
+ .byte 15,89,169,132,95,0,0 // mulps 0x5f84(%ecx),%xmm5
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
@@ -72106,7 +61596,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,228 // mulss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,129,68,154,0,0 // xorps 0x9a44(%ecx),%xmm0
+ .byte 15,87,129,52,94,0,0 // xorps 0x5e34(%ecx),%xmm0
.byte 15,94,197 // divps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -72182,14 +61672,14 @@ _sk_save_xy_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 232,0,0,0,0 // call 6cb9 <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,119,148,0,0 // movaps 0x9477(%eax),%xmm4
+ .byte 15,40,160,103,88,0,0 // movaps 0x5867(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,135,148,0,0 // movaps 0x9487(%eax),%xmm2
+ .byte 15,40,144,119,88,0,0 // movaps 0x5877(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -72271,8 +61761,8 @@ _sk_bilinear_nx_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,245,153,0,0 // addps 0x99f5(%eax),%xmm0
- .byte 15,40,168,165,147,0,0 // movaps 0x93a5(%eax),%xmm5
+ .byte 15,88,128,229,93,0,0 // addps 0x5de5(%eax),%xmm0
+ .byte 15,40,168,149,87,0,0 // movaps 0x5795(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -72300,7 +61790,7 @@ _sk_bilinear_px_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,82,147,0,0 // addps 0x9352(%eax),%xmm0
+ .byte 15,88,128,66,87,0,0 // addps 0x5742(%eax),%xmm0
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -72327,8 +61817,8 @@ _sk_bilinear_ny_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,121,153,0,0 // addps 0x9979(%eax),%xmm1
- .byte 15,40,168,41,147,0,0 // movaps 0x9329(%eax),%xmm5
+ .byte 15,88,136,105,93,0,0 // addps 0x5d69(%eax),%xmm1
+ .byte 15,40,168,25,87,0,0 // movaps 0x5719(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -72356,7 +61846,7 @@ _sk_bilinear_py_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,213,146,0,0 // addps 0x92d5(%eax),%xmm1
+ .byte 15,88,136,197,86,0,0 // addps 0x56c5(%eax),%xmm1
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -72383,13 +61873,13 @@ _sk_bicubic_n3x_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,11,153,0,0 // addps 0x990b(%eax),%xmm0
- .byte 15,40,168,171,146,0,0 // movaps 0x92ab(%eax),%xmm5
+ .byte 15,88,128,251,92,0,0 // addps 0x5cfb(%eax),%xmm0
+ .byte 15,40,168,155,86,0,0 // movaps 0x569b(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,27,153,0,0 // mulps 0x991b(%eax),%xmm5
- .byte 15,88,168,139,148,0,0 // addps 0x948b(%eax),%xmm5
+ .byte 15,89,168,11,93,0,0 // mulps 0x5d0b(%eax),%xmm5
+ .byte 15,88,168,123,88,0,0 // addps 0x587b(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -72417,16 +61907,16 @@ _sk_bicubic_n1x_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,161,152,0,0 // addps 0x98a1(%eax),%xmm0
- .byte 15,40,168,81,146,0,0 // movaps 0x9251(%eax),%xmm5
+ .byte 15,88,128,145,92,0,0 // addps 0x5c91(%eax),%xmm0
+ .byte 15,40,168,65,86,0,0 // movaps 0x5641(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,209,152,0,0 // movaps 0x98d1(%eax),%xmm4
+ .byte 15,40,160,193,92,0,0 // movaps 0x5cc1(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,225,152,0,0 // addps 0x98e1(%eax),%xmm4
+ .byte 15,88,160,209,92,0,0 // addps 0x5cd1(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,65,146,0,0 // addps 0x9241(%eax),%xmm4
+ .byte 15,88,160,49,86,0,0 // addps 0x5631(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,241,152,0,0 // addps 0x98f1(%eax),%xmm4
+ .byte 15,88,160,225,92,0,0 // addps 0x5ce1(%eax),%xmm4
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -72451,17 +61941,17 @@ _sk_bicubic_p1x_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,217,145,0,0 // movaps 0x91d9(%eax),%xmm4
+ .byte 15,40,160,201,85,0,0 // movaps 0x55c9(%eax),%xmm4
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,110,64 // movups 0x40(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,105,152,0,0 // movaps 0x9869(%eax),%xmm6
+ .byte 15,40,176,89,92,0,0 // movaps 0x5c59(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,121,152,0,0 // addps 0x9879(%eax),%xmm6
+ .byte 15,88,176,105,92,0,0 // addps 0x5c69(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,137,152,0,0 // addps 0x9889(%eax),%xmm6
+ .byte 15,88,176,121,92,0,0 // addps 0x5c79(%eax),%xmm6
.byte 15,17,182,128,0,0,0 // movups %xmm6,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -72488,11 +61978,11 @@ _sk_bicubic_p3x_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,28,152,0,0 // addps 0x981c(%eax),%xmm0
+ .byte 15,88,128,12,92,0,0 // addps 0x5c0c(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,252,151,0,0 // mulps 0x97fc(%eax),%xmm4
- .byte 15,88,160,108,147,0,0 // addps 0x936c(%eax),%xmm4
+ .byte 15,89,160,236,91,0,0 // mulps 0x5bec(%eax),%xmm4
+ .byte 15,88,160,92,87,0,0 // addps 0x575c(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -72520,13 +62010,13 @@ _sk_bicubic_n3y_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,156,151,0,0 // addps 0x979c(%eax),%xmm1
- .byte 15,40,168,60,145,0,0 // movaps 0x913c(%eax),%xmm5
+ .byte 15,88,136,140,91,0,0 // addps 0x5b8c(%eax),%xmm1
+ .byte 15,40,168,44,85,0,0 // movaps 0x552c(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,172,151,0,0 // mulps 0x97ac(%eax),%xmm5
- .byte 15,88,168,28,147,0,0 // addps 0x931c(%eax),%xmm5
+ .byte 15,89,168,156,91,0,0 // mulps 0x5b9c(%eax),%xmm5
+ .byte 15,88,168,12,87,0,0 // addps 0x570c(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -72554,16 +62044,16 @@ _sk_bicubic_n1y_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,49,151,0,0 // addps 0x9731(%eax),%xmm1
- .byte 15,40,168,225,144,0,0 // movaps 0x90e1(%eax),%xmm5
+ .byte 15,88,136,33,91,0,0 // addps 0x5b21(%eax),%xmm1
+ .byte 15,40,168,209,84,0,0 // movaps 0x54d1(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,97,151,0,0 // movaps 0x9761(%eax),%xmm4
+ .byte 15,40,160,81,91,0,0 // movaps 0x5b51(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,113,151,0,0 // addps 0x9771(%eax),%xmm4
+ .byte 15,88,160,97,91,0,0 // addps 0x5b61(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,209,144,0,0 // addps 0x90d1(%eax),%xmm4
+ .byte 15,88,160,193,84,0,0 // addps 0x54c1(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,129,151,0,0 // addps 0x9781(%eax),%xmm4
+ .byte 15,88,160,113,91,0,0 // addps 0x5b71(%eax),%xmm4
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -72588,17 +62078,17 @@ _sk_bicubic_p1y_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,104,144,0,0 // movaps 0x9068(%eax),%xmm4
+ .byte 15,40,160,88,84,0,0 // movaps 0x5458(%eax),%xmm4
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,110,96 // movups 0x60(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,248,150,0,0 // movaps 0x96f8(%eax),%xmm6
+ .byte 15,40,176,232,90,0,0 // movaps 0x5ae8(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,8,151,0,0 // addps 0x9708(%eax),%xmm6
+ .byte 15,88,176,248,90,0,0 // addps 0x5af8(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,24,151,0,0 // addps 0x9718(%eax),%xmm6
+ .byte 15,88,176,8,91,0,0 // addps 0x5b08(%eax),%xmm6
.byte 15,17,182,160,0,0,0 // movups %xmm6,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -72625,11 +62115,11 @@ _sk_bicubic_p3y_sse2:
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,170,150,0,0 // addps 0x96aa(%eax),%xmm1
+ .byte 15,88,136,154,90,0,0 // addps 0x5a9a(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,138,150,0,0 // mulps 0x968a(%eax),%xmm4
- .byte 15,88,160,250,145,0,0 // addps 0x91fa(%eax),%xmm4
+ .byte 15,89,160,122,90,0,0 // mulps 0x5a7a(%eax),%xmm4
+ .byte 15,88,160,234,85,0,0 // addps 0x55ea(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -72782,7 +62272,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,162,238,148,0,0 // movdqa 0x94ee(%edx),%xmm4
+ .byte 102,15,111,162,222,88,0,0 // movdqa 0x58de(%edx),%xmm4
.byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -72822,7 +62312,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,248 // unpcklps %xmm0,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,130,110,142,0,0 // movdqa 0x8e6e(%edx),%xmm0
+ .byte 102,15,111,130,94,82,0,0 // movdqa 0x525e(%edx),%xmm0
.byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
@@ -72839,7 +62329,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,241 // unpcklpd %xmm1,%xmm6
- .byte 15,40,130,222,148,0,0 // movaps 0x94de(%edx),%xmm0
+ .byte 15,40,130,206,88,0,0 // movaps 0x58ce(%edx),%xmm0
.byte 15,40,141,232,254,255,255 // movaps -0x118(%ebp),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
@@ -73473,7 +62963,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,214 // paddd %xmm6,%xmm2
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,161,88,137,0,0 // movdqa 0x8958(%ecx),%xmm4
+ .byte 102,15,111,161,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm4
.byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,204 // pmuludq %xmm4,%xmm1
@@ -73515,7 +63005,7 @@ _sk_clut_4D_sse2:
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
.byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,137,216,130,0,0 // paddd 0x82d8(%ecx),%xmm1
+ .byte 102,15,254,137,200,70,0,0 // paddd 0x46c8(%ecx),%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -73530,7 +63020,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,185,72,137,0,0 // movaps 0x8948(%ecx),%xmm7
+ .byte 15,40,185,56,77,0,0 // movaps 0x4d38(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
@@ -73551,7 +63041,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
.byte 102,15,254,212 // paddd %xmm4,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,161,88,137,0,0 // movdqa 0x8958(%ecx),%xmm4
+ .byte 102,15,111,161,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm4
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -73587,7 +63077,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,216,130,0,0 // paddd 0x82d8(%ecx),%xmm0
+ .byte 102,15,254,129,200,70,0,0 // paddd 0x46c8(%ecx),%xmm0
.byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -73671,7 +63161,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 102,15,20,240 // unpcklpd %xmm0,%xmm6
- .byte 102,15,254,137,216,130,0,0 // paddd 0x82d8(%ecx),%xmm1
+ .byte 102,15,254,137,200,70,0,0 // paddd 0x46c8(%ecx),%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
@@ -73689,7 +63179,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,88,137,0,0 // movdqa 0x8958(%ecx),%xmm2
+ .byte 102,15,111,145,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -73725,7 +63215,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,169,216,130,0,0 // paddd 0x82d8(%ecx),%xmm5
+ .byte 102,15,254,169,200,70,0,0 // paddd 0x46c8(%ecx),%xmm5
.byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
@@ -73785,7 +63275,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,153,88,137,0,0 // movdqa 0x8958(%ecx),%xmm3
+ .byte 102,15,111,153,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm3
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -73824,7 +63314,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,254,129,216,130,0,0 // paddd 0x82d8(%ecx),%xmm0
+ .byte 102,15,254,129,200,70,0,0 // paddd 0x46c8(%ecx),%xmm0
.byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
@@ -73876,7 +63366,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 102,15,111,137,216,130,0,0 // movdqa 0x82d8(%ecx),%xmm1
+ .byte 102,15,111,137,200,70,0,0 // movdqa 0x46c8(%ecx),%xmm1
.byte 102,15,254,249 // paddd %xmm1,%xmm7
.byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -73910,7 +63400,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,153,88,137,0,0 // movdqa 0x8958(%ecx),%xmm3
+ .byte 102,15,111,153,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
@@ -73967,7 +63457,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,88,137,0,0 // movdqa 0x8958(%ecx),%xmm1
+ .byte 102,15,111,137,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -74004,7 +63494,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,212 // unpcklps %xmm4,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,216,130,0,0 // paddd 0x82d8(%ecx),%xmm0
+ .byte 102,15,254,129,200,70,0,0 // paddd 0x46c8(%ecx),%xmm0
.byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -74072,7 +63562,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,129,88,137,0,0 // movdqa 0x8958(%ecx),%xmm0
+ .byte 102,15,111,129,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm0
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -74111,7 +63601,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,145,216,130,0,0 // paddd 0x82d8(%ecx),%xmm2
+ .byte 102,15,254,145,200,70,0,0 // paddd 0x46c8(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -74163,7 +63653,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,208 // unpcklps %xmm0,%xmm2
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,137,216,130,0,0 // movdqa 0x82d8(%ecx),%xmm1
+ .byte 102,15,111,137,200,70,0,0 // movdqa 0x46c8(%ecx),%xmm1
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
@@ -74198,7 +63688,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,169,88,137,0,0 // movdqa 0x8958(%ecx),%xmm5
+ .byte 102,15,111,169,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm5
.byte 102,15,111,221 // movdqa %xmm5,%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,227 // pmuludq %xmm3,%xmm4
@@ -74254,7 +63744,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,88,137,0,0 // movdqa 0x8958(%ecx),%xmm2
+ .byte 102,15,111,145,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -74290,7 +63780,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,185,216,130,0,0 // paddd 0x82d8(%ecx),%xmm7
+ .byte 102,15,254,185,200,70,0,0 // paddd 0x46c8(%ecx),%xmm7
.byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
@@ -74340,7 +63830,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,88,137,0,0 // movdqa 0x8958(%ecx),%xmm2
+ .byte 102,15,111,145,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,111,250 // movdqa %xmm2,%xmm7
@@ -74379,7 +63869,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,216,130,0,0 // paddd 0x82d8(%ecx),%xmm2
+ .byte 102,15,254,145,200,70,0,0 // paddd 0x46c8(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -74433,7 +63923,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,252 // unpcklps %xmm4,%xmm7
.byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,254,153,216,130,0,0 // paddd 0x82d8(%ecx),%xmm3
+ .byte 102,15,254,153,200,70,0,0 // paddd 0x46c8(%ecx),%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -74466,7 +63956,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,88,137,0,0 // movdqa 0x8958(%ecx),%xmm1
+ .byte 102,15,111,137,72,77,0,0 // movdqa 0x4d48(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -74506,7 +63996,7 @@ _sk_clut_4D_sse2:
.byte 15,20,225 // unpcklps %xmm1,%xmm4
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
.byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp)
- .byte 102,15,254,129,216,130,0,0 // paddd 0x82d8(%ecx),%xmm0
+ .byte 102,15,254,129,200,70,0,0 // paddd 0x46c8(%ecx),%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -74560,7 +64050,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,216,130,0,0 // paddd 0x82d8(%ecx),%xmm2
+ .byte 102,15,254,145,200,70,0,0 // paddd 0x46c8(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -74630,7 +64120,7 @@ _sk_clut_4D_sse2:
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 141,86,8 // lea 0x8(%esi),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,152,130,0,0 // movaps 0x8298(%ecx),%xmm3
+ .byte 15,40,153,136,70,0,0 // movaps 0x4688(%ecx),%xmm3
.byte 82 // push %edx
.byte 80 // push %eax
.byte 255,86,4 // call *0x4(%esi)
@@ -74642,4311 +64132,6 @@ _sk_clut_4D_sse2:
.byte 195 // ret
.byte 144 // nop
-HIDDEN _sk_start_pipeline_sse2_8bit
-.globl _sk_start_pipeline_sse2_8bit
-FUNCTION(_sk_start_pipeline_sse2_8bit)
-_sk_start_pipeline_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 139,93,12 // mov 0xc(%ebp),%ebx
- .byte 59,93,20 // cmp 0x14(%ebp),%ebx
- .byte 115,92 // jae 9361 <_sk_start_pipeline_sse2_8bit+0x6d>
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 131,198,4 // add $0x4,%esi
- .byte 141,64,8 // lea 0x8(%eax),%eax
- .byte 137,69,236 // mov %eax,-0x14(%ebp)
- .byte 137,93,240 // mov %ebx,-0x10(%ebp)
- .byte 57,85,236 // cmp %edx,-0x14(%ebp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,243 // mov %esi,%ebx
- .byte 119,30 // ja 9344 <_sk_start_pipeline_sse2_8bit+0x50>
- .byte 139,117,8 // mov 0x8(%ebp),%esi
- .byte 255,117,240 // pushl -0x10(%ebp)
- .byte 86 // push %esi
- .byte 83 // push %ebx
- .byte 106,0 // push $0x0
- .byte 255,215 // call *%edi
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 131,196,16 // add $0x10,%esp
- .byte 141,70,8 // lea 0x8(%esi),%eax
- .byte 131,198,16 // add $0x10,%esi
- .byte 57,214 // cmp %edx,%esi
- .byte 137,198 // mov %eax,%esi
- .byte 118,229 // jbe 9329 <_sk_start_pipeline_sse2_8bit+0x35>
- .byte 137,209 // mov %edx,%ecx
- .byte 41,193 // sub %eax,%ecx
- .byte 137,222 // mov %ebx,%esi
- .byte 139,93,240 // mov -0x10(%ebp),%ebx
- .byte 116,12 // je 935b <_sk_start_pipeline_sse2_8bit+0x67>
- .byte 83 // push %ebx
- .byte 80 // push %eax
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 255,215 // call *%edi
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 131,196,16 // add $0x10,%esp
- .byte 67 // inc %ebx
- .byte 59,93,20 // cmp 0x14(%ebp),%ebx
- .byte 117,184 // jne 9319 <_sk_start_pipeline_sse2_8bit+0x25>
- .byte 131,196,12 // add $0xc,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_just_return_sse2_8bit
-.globl _sk_just_return_sse2_8bit
-FUNCTION(_sk_just_return_sse2_8bit)
-_sk_just_return_sse2_8bit:
- .byte 195 // ret
-
-HIDDEN _sk_uniform_color_sse2_8bit
-.globl _sk_uniform_color_sse2_8bit
-FUNCTION(_sk_uniform_color_sse2_8bit)
-_sk_uniform_color_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 102,15,110,65,16 // movd 0x10(%ecx),%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_set_rgb_sse2_8bit
-.globl _sk_set_rgb_sse2_8bit
-FUNCTION(_sk_set_rgb_sse2_8bit)
-_sk_set_rgb_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 93a6 <_sk_set_rgb_sse2_8bit+0xe>
- .byte 89 // pop %ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 243,15,16,161,158,117,0,0 // movss 0x759e(%ecx),%xmm4
- .byte 243,15,16,50 // movss (%edx),%xmm6
- .byte 243,15,89,244 // mulss %xmm4,%xmm6
- .byte 243,15,44,246 // cvttss2si %xmm6,%esi
- .byte 243,15,16,169,162,117,0,0 // movss 0x75a2(%ecx),%xmm5
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 243,15,92,253 // subss %xmm5,%xmm7
- .byte 243,15,44,255 // cvttss2si %xmm7,%edi
- .byte 129,247,0,0,0,128 // xor $0x80000000,%edi
- .byte 15,46,245 // ucomiss %xmm5,%xmm6
- .byte 15,66,254 // cmovb %esi,%edi
- .byte 243,15,16,114,4 // movss 0x4(%edx),%xmm6
- .byte 243,15,89,244 // mulss %xmm4,%xmm6
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 243,15,92,253 // subss %xmm5,%xmm7
- .byte 243,15,44,247 // cvttss2si %xmm7,%esi
- .byte 129,246,0,0,0,128 // xor $0x80000000,%esi
- .byte 15,46,245 // ucomiss %xmm5,%xmm6
- .byte 243,15,44,222 // cvttss2si %xmm6,%ebx
- .byte 15,66,243 // cmovb %ebx,%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,254 // or %edi,%esi
- .byte 243,15,89,98,8 // mulss 0x8(%edx),%xmm4
- .byte 243,15,44,212 // cvttss2si %xmm4,%edx
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 243,15,92,245 // subss %xmm5,%xmm6
- .byte 243,15,44,254 // cvttss2si %xmm6,%edi
- .byte 129,247,0,0,0,128 // xor $0x80000000,%edi
- .byte 15,46,229 // ucomiss %xmm5,%xmm4
- .byte 15,66,250 // cmovb %edx,%edi
- .byte 193,231,16 // shl $0x10,%edi
- .byte 9,247 // or %esi,%edi
- .byte 102,15,110,231 // movd %edi,%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,111,169,106,116,0,0 // movdqa 0x746a(%ecx),%xmm5
- .byte 102,15,219,205 // pand %xmm5,%xmm1
- .byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 102,15,235,196 // por %xmm4,%xmm0
- .byte 102,15,235,204 // por %xmm4,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_premul_sse2_8bit
-.globl _sk_premul_sse2_8bit
-FUNCTION(_sk_premul_sse2_8bit)
-_sk_premul_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,56 // sub $0x38,%esp
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 947e <_sk_premul_sse2_8bit+0x18>
- .byte 88 // pop %eax
- .byte 242,15,112,227,231 // pshuflw $0xe7,%xmm3,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,244,95 // pshufhw $0x5f,%xmm4,%xmm6
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,252,95 // pshufhw $0x5f,%xmm4,%xmm7
- .byte 102,15,111,160,146,115,0,0 // movdqa 0x7392(%eax),%xmm4
- .byte 102,15,235,252 // por %xmm4,%xmm7
- .byte 102,15,235,244 // por %xmm4,%xmm6
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4
- .byte 102,15,104,218 // punpckhbw %xmm2,%xmm3
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,96,234 // punpcklbw %xmm2,%xmm5
- .byte 102,15,104,202 // punpckhbw %xmm2,%xmm1
- .byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,96,194 // punpcklbw %xmm2,%xmm0
- .byte 102,15,104,242 // punpckhbw %xmm2,%xmm6
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
- .byte 102,15,96,202 // punpcklbw %xmm2,%xmm1
- .byte 102,15,104,250 // punpckhbw %xmm2,%xmm7
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,253,243 // paddw %xmm3,%xmm6
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,253,233 // paddw %xmm1,%xmm5
- .byte 102,15,111,69,232 // movdqa -0x18(%ebp),%xmm0
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,239 // packuswb %xmm7,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,230 // packuswb %xmm6,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,72 // add $0x48,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_swap_rb_sse2_8bit
-.globl _sk_swap_rb_sse2_8bit
-FUNCTION(_sk_swap_rb_sse2_8bit)
-_sk_swap_rb_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
- .byte 242,15,112,192,198 // pshuflw $0xc6,%xmm0,%xmm0
- .byte 243,15,112,192,198 // pshufhw $0xc6,%xmm0,%xmm0
- .byte 102,15,103,197 // packuswb %xmm5,%xmm0
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1
- .byte 242,15,112,201,198 // pshuflw $0xc6,%xmm1,%xmm1
- .byte 243,15,112,201,198 // pshufhw $0xc6,%xmm1,%xmm1
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_invert_sse2_8bit
-.globl _sk_invert_sse2_8bit
-FUNCTION(_sk_invert_sse2_8bit)
-_sk_invert_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,239,196 // pxor %xmm4,%xmm0
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_load_8888_sse2_8bit
-.globl _sk_load_8888_sse2_8bit
-FUNCTION(_sk_load_8888_sse2_8bit)
-_sk_load_8888_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 960a <_sk_load_8888_sse2_8bit+0xe>
- .byte 91 // pop %ebx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,122,4 // mov 0x4(%edx),%edi
- .byte 15,175,125,20 // imul 0x14(%ebp),%edi
- .byte 193,231,2 // shl $0x2,%edi
- .byte 3,58 // add (%edx),%edi
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 117,30 // jne 9644 <_sk_load_8888_sse2_8bit+0x48>
- .byte 102,15,16,4,183 // movupd (%edi,%esi,4),%xmm0
- .byte 15,16,76,183,16 // movups 0x10(%edi,%esi,4),%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 119,216 // ja 9630 <_sk_load_8888_sse2_8bit+0x34>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 3,156,139,162,0,0,0 // add 0xa2(%ebx,%ecx,4),%ebx
- .byte 255,227 // jmp *%ebx
- .byte 243,15,16,4,183 // movss (%edi,%esi,4),%xmm0
- .byte 235,197 // jmp 9630 <_sk_load_8888_sse2_8bit+0x34>
- .byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 102,15,18,4,183 // movlpd (%edi,%esi,4),%xmm0
- .byte 235,179 // jmp 9630 <_sk_load_8888_sse2_8bit+0x34>
- .byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
- .byte 102,15,112,200,69 // pshufd $0x45,%xmm0,%xmm1
- .byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
- .byte 15,198,193,0 // shufps $0x0,%xmm1,%xmm0
- .byte 15,198,193,226 // shufps $0xe2,%xmm1,%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 243,15,16,68,183,16 // movss 0x10(%edi,%esi,4),%xmm0
- .byte 243,15,16,200 // movss %xmm0,%xmm1
- .byte 102,15,16,4,183 // movupd (%edi,%esi,4),%xmm0
- .byte 235,134 // jmp 9630 <_sk_load_8888_sse2_8bit+0x34>
- .byte 102,144 // xchg %ax,%ax
- .byte 90 // pop %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0,108,0,0 // add %ch,0x0(%eax,%eax,1)
- .byte 0,97,0 // add %ah,0x0(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 153 // cltd
- .byte 0,0 // add %al,(%eax)
- .byte 0,143,0,0,0,126 // add %cl,0x7e000000(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,115,0 // add %dh,0x0(%ebx)
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_load_8888_dst_sse2_8bit
-.globl _sk_load_8888_dst_sse2_8bit
-FUNCTION(_sk_load_8888_dst_sse2_8bit)
-_sk_load_8888_dst_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 96d6 <_sk_load_8888_dst_sse2_8bit+0xe>
- .byte 91 // pop %ebx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,122,4 // mov 0x4(%edx),%edi
- .byte 15,175,125,20 // imul 0x14(%ebp),%edi
- .byte 193,231,2 // shl $0x2,%edi
- .byte 3,58 // add (%edx),%edi
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 117,30 // jne 9710 <_sk_load_8888_dst_sse2_8bit+0x48>
- .byte 102,15,16,20,183 // movupd (%edi,%esi,4),%xmm2
- .byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 119,216 // ja 96fc <_sk_load_8888_dst_sse2_8bit+0x34>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 3,156,139,162,0,0,0 // add 0xa2(%ebx,%ecx,4),%ebx
- .byte 255,227 // jmp *%ebx
- .byte 243,15,16,20,183 // movss (%edi,%esi,4),%xmm2
- .byte 235,197 // jmp 96fc <_sk_load_8888_dst_sse2_8bit+0x34>
- .byte 102,15,110,84,183,8 // movd 0x8(%edi,%esi,4),%xmm2
- .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2
- .byte 102,15,18,20,183 // movlpd (%edi,%esi,4),%xmm2
- .byte 235,179 // jmp 96fc <_sk_load_8888_dst_sse2_8bit+0x34>
- .byte 102,15,110,84,183,24 // movd 0x18(%edi,%esi,4),%xmm2
- .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
- .byte 243,15,16,84,183,20 // movss 0x14(%edi,%esi,4),%xmm2
- .byte 15,198,211,0 // shufps $0x0,%xmm3,%xmm2
- .byte 15,198,211,226 // shufps $0xe2,%xmm3,%xmm2
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 243,15,16,84,183,16 // movss 0x10(%edi,%esi,4),%xmm2
- .byte 243,15,16,218 // movss %xmm2,%xmm3
- .byte 102,15,16,20,183 // movupd (%edi,%esi,4),%xmm2
- .byte 235,134 // jmp 96fc <_sk_load_8888_dst_sse2_8bit+0x34>
- .byte 102,144 // xchg %ax,%ax
- .byte 90 // pop %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0,108,0,0 // add %ch,0x0(%eax,%eax,1)
- .byte 0,97,0 // add %ah,0x0(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 153 // cltd
- .byte 0,0 // add %al,(%eax)
- .byte 0,143,0,0,0,126 // add %cl,0x7e000000(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,115,0 // add %dh,0x0(%ebx)
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_store_8888_sse2_8bit
-.globl _sk_store_8888_sse2_8bit
-FUNCTION(_sk_store_8888_sse2_8bit)
-_sk_store_8888_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 97a2 <_sk_store_8888_sse2_8bit+0xe>
- .byte 91 // pop %ebx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,122,4 // mov 0x4(%edx),%edi
- .byte 15,175,125,20 // imul 0x14(%ebp),%edi
- .byte 193,231,2 // shl $0x2,%edi
- .byte 3,58 // add (%edx),%edi
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 117,31 // jne 97dd <_sk_store_8888_sse2_8bit+0x49>
- .byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
- .byte 243,15,127,76,183,16 // movdqu %xmm1,0x10(%edi,%esi,4)
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 119,224 // ja 97c9 <_sk_store_8888_sse2_8bit+0x35>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 3,156,139,146,0,0,0 // add 0x92(%ebx,%ecx,4),%ebx
- .byte 255,227 // jmp *%ebx
- .byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,205 // jmp 97c9 <_sk_store_8888_sse2_8bit+0x35>
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,126,100,183,8 // movd %xmm4,0x8(%edi,%esi,4)
- .byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,187 // jmp 97c9 <_sk_store_8888_sse2_8bit+0x35>
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,15,126,100,183,24 // movd %xmm4,0x18(%edi,%esi,4)
- .byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4
- .byte 102,15,126,100,183,20 // movd %xmm4,0x14(%edi,%esi,4)
- .byte 102,15,126,76,183,16 // movd %xmm1,0x10(%edi,%esi,4)
- .byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
- .byte 235,152 // jmp 97c9 <_sk_store_8888_sse2_8bit+0x35>
- .byte 15,31,0 // nopl (%eax)
- .byte 83 // push %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 0,101,0 // add %ah,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
- .byte 90 // pop %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0,136,0,0,0,130 // add %cl,-0x7e000000(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,119,0 // add %dh,0x0(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 108 // insb (%dx),%es:(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_bgra_sse2_8bit
-.globl _sk_load_bgra_sse2_8bit
-FUNCTION(_sk_load_bgra_sse2_8bit)
-_sk_load_bgra_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 985e <_sk_load_bgra_sse2_8bit+0xe>
- .byte 91 // pop %ebx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,122,4 // mov 0x4(%edx),%edi
- .byte 15,175,125,20 // imul 0x14(%ebp),%edi
- .byte 193,231,2 // shl $0x2,%edi
- .byte 3,58 // add (%edx),%edi
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 117,106 // jne 98e4 <_sk_load_bgra_sse2_8bit+0x94>
- .byte 102,15,16,4,183 // movupd (%edi,%esi,4),%xmm0
- .byte 15,16,76,183,16 // movups 0x10(%edi,%esi,4),%xmm1
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,40,232 // movapd %xmm0,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
- .byte 242,15,112,192,198 // pshuflw $0xc6,%xmm0,%xmm0
- .byte 243,15,112,192,198 // pshufhw $0xc6,%xmm0,%xmm0
- .byte 102,15,103,197 // packuswb %xmm5,%xmm0
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1
- .byte 242,15,112,201,198 // pshuflw $0xc6,%xmm1,%xmm1
- .byte 243,15,112,201,198 // pshufhw $0xc6,%xmm1,%xmm1
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 119,140 // ja 9884 <_sk_load_bgra_sse2_8bit+0x34>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 3,156,139,246,0,0,0 // add 0xf6(%ebx,%ecx,4),%ebx
- .byte 255,227 // jmp *%ebx
- .byte 243,15,16,4,183 // movss (%edi,%esi,4),%xmm0
- .byte 233,118,255,255,255 // jmp 9884 <_sk_load_bgra_sse2_8bit+0x34>
- .byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 102,15,18,4,183 // movlpd (%edi,%esi,4),%xmm0
- .byte 233,97,255,255,255 // jmp 9884 <_sk_load_bgra_sse2_8bit+0x34>
- .byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
- .byte 102,15,112,200,69 // pshufd $0x45,%xmm0,%xmm1
- .byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
- .byte 15,198,193,0 // shufps $0x0,%xmm1,%xmm0
- .byte 15,198,193,226 // shufps $0xe2,%xmm1,%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 243,15,16,68,183,16 // movss 0x10(%edi,%esi,4),%xmm0
- .byte 243,15,16,200 // movss %xmm0,%xmm1
- .byte 102,15,16,4,183 // movupd (%edi,%esi,4),%xmm0
- .byte 233,49,255,255,255 // jmp 9884 <_sk_load_bgra_sse2_8bit+0x34>
- .byte 144 // nop
- .byte 166 // cmpsb %es:(%edi),%ds:(%esi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,187,0,0,0,176 // add %bh,-0x50000000(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,235 // add %ch,%bl
- .byte 0,0 // add %al,(%eax)
- .byte 0,225 // add %ah,%cl
- .byte 0,0 // add %al,(%eax)
- .byte 0,208 // add %dl,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,197 // add %al,%ch
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_bgra_dst_sse2_8bit
-.globl _sk_load_bgra_dst_sse2_8bit
-FUNCTION(_sk_load_bgra_dst_sse2_8bit)
-_sk_load_bgra_dst_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 997e <_sk_load_bgra_dst_sse2_8bit+0xe>
- .byte 91 // pop %ebx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,122,4 // mov 0x4(%edx),%edi
- .byte 15,175,125,20 // imul 0x14(%ebp),%edi
- .byte 193,231,2 // shl $0x2,%edi
- .byte 3,58 // add (%edx),%edi
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 117,106 // jne 9a04 <_sk_load_bgra_dst_sse2_8bit+0x94>
- .byte 102,15,16,20,183 // movupd (%edi,%esi,4),%xmm2
- .byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,40,234 // movapd %xmm2,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2
- .byte 242,15,112,210,198 // pshuflw $0xc6,%xmm2,%xmm2
- .byte 243,15,112,210,198 // pshufhw $0xc6,%xmm2,%xmm2
- .byte 102,15,103,213 // packuswb %xmm5,%xmm2
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,104,236 // punpckhbw %xmm4,%xmm5
- .byte 242,15,112,237,198 // pshuflw $0xc6,%xmm5,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,96,220 // punpcklbw %xmm4,%xmm3
- .byte 242,15,112,219,198 // pshuflw $0xc6,%xmm3,%xmm3
- .byte 243,15,112,219,198 // pshufhw $0xc6,%xmm3,%xmm3
- .byte 102,15,103,221 // packuswb %xmm5,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 119,140 // ja 99a4 <_sk_load_bgra_dst_sse2_8bit+0x34>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 3,156,139,246,0,0,0 // add 0xf6(%ebx,%ecx,4),%ebx
- .byte 255,227 // jmp *%ebx
- .byte 243,15,16,20,183 // movss (%edi,%esi,4),%xmm2
- .byte 233,118,255,255,255 // jmp 99a4 <_sk_load_bgra_dst_sse2_8bit+0x34>
- .byte 102,15,110,84,183,8 // movd 0x8(%edi,%esi,4),%xmm2
- .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2
- .byte 102,15,18,20,183 // movlpd (%edi,%esi,4),%xmm2
- .byte 233,97,255,255,255 // jmp 99a4 <_sk_load_bgra_dst_sse2_8bit+0x34>
- .byte 102,15,110,84,183,24 // movd 0x18(%edi,%esi,4),%xmm2
- .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
- .byte 243,15,16,84,183,20 // movss 0x14(%edi,%esi,4),%xmm2
- .byte 15,198,211,0 // shufps $0x0,%xmm3,%xmm2
- .byte 15,198,211,226 // shufps $0xe2,%xmm3,%xmm2
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 243,15,16,84,183,16 // movss 0x10(%edi,%esi,4),%xmm2
- .byte 243,15,16,218 // movss %xmm2,%xmm3
- .byte 102,15,16,20,183 // movupd (%edi,%esi,4),%xmm2
- .byte 233,49,255,255,255 // jmp 99a4 <_sk_load_bgra_dst_sse2_8bit+0x34>
- .byte 144 // nop
- .byte 166 // cmpsb %es:(%edi),%ds:(%esi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,187,0,0,0,176 // add %bh,-0x50000000(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,235 // add %ch,%bl
- .byte 0,0 // add %al,(%eax)
- .byte 0,225 // add %ah,%cl
- .byte 0,0 // add %al,(%eax)
- .byte 0,208 // add %dl,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,197 // add %al,%ch
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_store_bgra_sse2_8bit
-.globl _sk_store_bgra_sse2_8bit
-FUNCTION(_sk_store_bgra_sse2_8bit)
-_sk_store_bgra_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 9a9e <_sk_store_bgra_sse2_8bit+0xe>
- .byte 91 // pop %ebx
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,114,4 // mov 0x4(%edx),%esi
- .byte 15,175,241 // imul %ecx,%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,50 // add (%edx),%esi
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,104,229 // punpckhbw %xmm5,%xmm4
- .byte 242,15,112,228,198 // pshuflw $0xc6,%xmm4,%xmm4
- .byte 243,15,112,244,198 // pshufhw $0xc6,%xmm4,%xmm6
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,96,229 // punpcklbw %xmm5,%xmm4
- .byte 242,15,112,228,198 // pshuflw $0xc6,%xmm4,%xmm4
- .byte 243,15,112,228,198 // pshufhw $0xc6,%xmm4,%xmm4
- .byte 102,15,103,230 // packuswb %xmm6,%xmm4
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,104,245 // punpckhbw %xmm5,%xmm6
- .byte 242,15,112,246,198 // pshuflw $0xc6,%xmm6,%xmm6
- .byte 243,15,112,246,198 // pshufhw $0xc6,%xmm6,%xmm6
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,96,253 // punpcklbw %xmm5,%xmm7
- .byte 242,15,112,239,198 // pshuflw $0xc6,%xmm7,%xmm5
- .byte 243,15,112,237,198 // pshufhw $0xc6,%xmm5,%xmm5
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 133,210 // test %edx,%edx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 117,29 // jne 9b2d <_sk_store_bgra_sse2_8bit+0x9d>
- .byte 243,15,127,44,190 // movdqu %xmm5,(%esi,%edi,4)
- .byte 243,15,127,100,190,16 // movdqu %xmm4,0x10(%esi,%edi,4)
- .byte 141,112,8 // lea 0x8(%eax),%esi
- .byte 81 // push %ecx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,93,240 // mov %ebx,-0x10(%ebp)
- .byte 137,211 // mov %edx,%ebx
- .byte 128,227,7 // and $0x7,%bl
- .byte 254,203 // dec %bl
- .byte 128,251,6 // cmp $0x6,%bl
- .byte 119,223 // ja 9b1b <_sk_store_bgra_sse2_8bit+0x8b>
- .byte 15,182,219 // movzbl %bl,%ebx
- .byte 139,77,240 // mov -0x10(%ebp),%ecx
- .byte 3,140,153,238,0,0,0 // add 0xee(%ecx,%ebx,4),%ecx
- .byte 255,225 // jmp *%ecx
- .byte 102,15,126,44,190 // movd %xmm5,(%esi,%edi,4)
- .byte 235,51 // jmp 9b85 <_sk_store_bgra_sse2_8bit+0xf5>
- .byte 102,15,112,229,78 // pshufd $0x4e,%xmm5,%xmm4
- .byte 102,15,126,100,190,8 // movd %xmm4,0x8(%esi,%edi,4)
- .byte 102,15,214,44,190 // movq %xmm5,(%esi,%edi,4)
- .byte 235,33 // jmp 9b85 <_sk_store_bgra_sse2_8bit+0xf5>
- .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6
- .byte 102,15,126,116,190,24 // movd %xmm6,0x18(%esi,%edi,4)
- .byte 102,15,112,244,229 // pshufd $0xe5,%xmm4,%xmm6
- .byte 102,15,126,116,190,20 // movd %xmm6,0x14(%esi,%edi,4)
- .byte 102,15,126,100,190,16 // movd %xmm4,0x10(%esi,%edi,4)
- .byte 243,15,127,44,190 // movdqu %xmm5,(%esi,%edi,4)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 235,145 // jmp 9b1b <_sk_store_bgra_sse2_8bit+0x8b>
- .byte 102,144 // xchg %ax,%ax
- .byte 173 // lods %ds:(%esi),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,191,0,0,0,180 // add %bh,-0x4c000000(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,226 // add %ah,%dl
- .byte 0,0 // add %al,(%eax)
- .byte 0,220 // add %bl,%ah
- .byte 0,0 // add %al,(%eax)
- .byte 0,209 // add %dl,%cl
- .byte 0,0 // add %al,(%eax)
- .byte 0,198 // add %al,%dh
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_store_565_sse2_8bit
-.globl _sk_store_565_sse2_8bit
-FUNCTION(_sk_store_565_sse2_8bit)
-_sk_store_565_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 9bb6 <_sk_store_565_sse2_8bit+0xe>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,114,4 // mov 0x4(%edx),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
- .byte 1,246 // add %esi,%esi
- .byte 3,50 // add (%edx),%esi
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 102,15,111,167,106,108,0,0 // movdqa 0x6c6a(%edi),%xmm4
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 102,15,114,244,8 // pslld $0x8,%xmm4
- .byte 102,15,114,245,8 // pslld $0x8,%xmm5
- .byte 102,15,111,183,122,108,0,0 // movdqa 0x6c7a(%edi),%xmm6
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 102,15,219,240 // pand %xmm0,%xmm6
- .byte 102,15,114,214,5 // psrld $0x5,%xmm6
- .byte 102,15,235,244 // por %xmm4,%xmm6
- .byte 102,15,114,215,5 // psrld $0x5,%xmm7
- .byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,175,138,108,0,0 // movdqa 0x6c8a(%edi),%xmm5
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,219,229 // pand %xmm5,%xmm4
- .byte 102,15,219,233 // pand %xmm1,%xmm5
- .byte 102,15,114,213,19 // psrld $0x13,%xmm5
- .byte 102,15,235,239 // por %xmm7,%xmm5
- .byte 102,15,114,212,19 // psrld $0x13,%xmm4
- .byte 102,15,235,230 // por %xmm6,%xmm4
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,229 // packssdw %xmm5,%xmm4
- .byte 133,210 // test %edx,%edx
- .byte 139,93,16 // mov 0x10(%ebp),%ebx
- .byte 117,25 // jne 9c6c <_sk_store_565_sse2_8bit+0xc4>
- .byte 243,15,127,36,94 // movdqu %xmm4,(%esi,%ebx,2)
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 83 // push %ebx
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 119,224 // ja 9c58 <_sk_store_565_sse2_8bit+0xb0>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 3,188,143,14,1,0,0 // add 0x10e(%edi,%ecx,4),%edi
- .byte 255,231 // jmp *%edi
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 102,137,12,94 // mov %cx,(%esi,%ebx,2)
- .byte 235,202 // jmp 9c58 <_sk_store_565_sse2_8bit+0xb0>
- .byte 102,15,197,204,2 // pextrw $0x2,%xmm4,%ecx
- .byte 102,137,76,94,4 // mov %cx,0x4(%esi,%ebx,2)
- .byte 102,15,126,36,94 // movd %xmm4,(%esi,%ebx,2)
- .byte 235,185 // jmp 9c58 <_sk_store_565_sse2_8bit+0xb0>
- .byte 102,15,197,204,6 // pextrw $0x6,%xmm4,%ecx
- .byte 102,137,76,94,12 // mov %cx,0xc(%esi,%ebx,2)
- .byte 102,15,197,204,5 // pextrw $0x5,%xmm4,%ecx
- .byte 102,137,76,94,10 // mov %cx,0xa(%esi,%ebx,2)
- .byte 102,15,197,204,4 // pextrw $0x4,%xmm4,%ecx
- .byte 102,137,76,94,8 // mov %cx,0x8(%esi,%ebx,2)
- .byte 102,15,214,36,94 // movq %xmm4,(%esi,%ebx,2)
- .byte 235,148 // jmp 9c58 <_sk_store_565_sse2_8bit+0xb0>
- .byte 206 // into
- .byte 0,0 // add %al,(%eax)
- .byte 0,226 // add %ah,%dl
- .byte 0,0 // add %al,(%eax)
- .byte 0,216 // add %bl,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,7 // add %al,(%edi)
- .byte 1,0 // add %eax,(%eax)
- .byte 0,253 // add %bh,%ch
- .byte 0,0 // add %al,(%eax)
- .byte 0,243 // add %dh,%bl
- .byte 0,0 // add %al,(%eax)
- .byte 0,233 // add %ch,%cl
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_565_dst_sse2_8bit
-.globl _sk_load_565_dst_sse2_8bit
-FUNCTION(_sk_load_565_dst_sse2_8bit)
-_sk_load_565_dst_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,28 // sub $0x1c,%esp
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 9cf2 <_sk_load_565_dst_sse2_8bit+0x12>
- .byte 94 // pop %esi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,90,4 // mov 0x4(%edx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,26 // add (%edx),%ebx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 15,133,235,0,0,0 // jne 9dfc <_sk_load_565_dst_sse2_8bit+0x11c>
- .byte 243,15,111,20,123 // movdqu (%ebx,%edi,2),%xmm2
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
- .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
- .byte 102,15,111,182,78,102,0,0 // movdqa 0x664e(%esi),%xmm6
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 102,15,219,243 // pand %xmm3,%xmm6
- .byte 102,15,114,214,8 // psrld $0x8,%xmm6
- .byte 102,15,114,215,8 // psrld $0x8,%xmm7
- .byte 102,15,111,174,142,102,0,0 // movdqa 0x668e(%esi),%xmm5
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,219,229 // pand %xmm5,%xmm4
- .byte 102,15,219,235 // pand %xmm3,%xmm5
- .byte 102,15,114,245,19 // pslld $0x13,%xmm5
- .byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 102,15,114,244,19 // pslld $0x13,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 102,15,111,182,110,102,0,0 // movdqa 0x666e(%esi),%xmm6
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 102,15,219,242 // pand %xmm2,%xmm6
- .byte 102,15,111,142,110,107,0,0 // movdqa 0x6b6e(%esi),%xmm1
- .byte 102,15,219,217 // pand %xmm1,%xmm3
- .byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,114,247,5 // pslld $0x5,%xmm7
- .byte 102,15,114,211,1 // psrld $0x1,%xmm3
- .byte 102,15,235,223 // por %xmm7,%xmm3
- .byte 102,15,235,221 // por %xmm5,%xmm3
- .byte 102,15,114,213,5 // psrld $0x5,%xmm5
- .byte 102,15,114,246,5 // pslld $0x5,%xmm6
- .byte 102,15,114,210,1 // psrld $0x1,%xmm2
- .byte 102,15,235,214 // por %xmm6,%xmm2
- .byte 102,15,235,212 // por %xmm4,%xmm2
- .byte 102,15,114,212,5 // psrld $0x5,%xmm4
- .byte 102,15,111,142,94,107,0,0 // movdqa 0x6b5e(%esi),%xmm1
- .byte 102,15,219,225 // pand %xmm1,%xmm4
- .byte 102,15,219,233 // pand %xmm1,%xmm5
- .byte 102,15,111,142,30,107,0,0 // movdqa 0x6b1e(%esi),%xmm1
- .byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,15,235,212 // por %xmm4,%xmm2
- .byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 102,15,235,221 // por %xmm5,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 87 // push %edi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,44 // add $0x2c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 15,135,6,255,255,255 // ja 9d16 <_sk_load_565_dst_sse2_8bit+0x36>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,142,118,1,0,0 // mov 0x176(%esi,%ecx,4),%ecx
- .byte 1,241 // add %esi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 233,235,254,255,255 // jmp 9d16 <_sk_load_565_dst_sse2_8bit+0x36>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,196,84,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm2
- .byte 243,15,16,28,123 // movss (%ebx,%edi,2),%xmm3
- .byte 243,15,16,211 // movss %xmm3,%xmm2
- .byte 233,210,254,255,255 // jmp 9d16 <_sk_load_565_dst_sse2_8bit+0x36>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,196,84,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm2
- .byte 102,15,196,84,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm2
- .byte 102,15,196,84,123,8,4 // pinsrw $0x4,0x8(%ebx,%edi,2),%xmm2
- .byte 102,15,18,20,123 // movlpd (%ebx,%edi,2),%xmm2
- .byte 233,175,254,255,255 // jmp 9d16 <_sk_load_565_dst_sse2_8bit+0x36>
- .byte 144 // nop
- .byte 44,1 // sub $0x1,%al
- .byte 0,0 // add %al,(%eax)
- .byte 68 // inc %esp
- .byte 1,0 // add %eax,(%eax)
- .byte 0,57 // add %bh,(%ecx)
- .byte 1,0 // add %eax,(%eax)
- .byte 0,107,1 // add %ch,0x1(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 100,1,0 // add %eax,%fs:(%eax)
- .byte 0,93,1 // add %bl,0x1(%ebp)
- .byte 0,0 // add %al,(%eax)
- .byte 82 // push %edx
- .byte 1,0 // add %eax,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_a8_sse2_8bit
-.globl _sk_load_a8_sse2_8bit
-FUNCTION(_sk_load_a8_sse2_8bit)
-_sk_load_a8_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 9e92 <_sk_load_a8_sse2_8bit+0xe>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,90,4 // mov 0x4(%edx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,26 // add (%edx),%ebx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 117,63 // jne 9eea <_sk_load_a8_sse2_8bit+0x66>
- .byte 243,15,126,4,51 // movq (%ebx,%esi,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 102,15,219,135,222,105,0,0 // pand 0x69de(%edi),%xmm0
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,105,204 // punpckhwd %xmm4,%xmm1
- .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
- .byte 102,15,114,240,24 // pslld $0x18,%xmm0
- .byte 102,15,114,241,24 // pslld $0x18,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 119,186 // ja 9eb4 <_sk_load_a8_sse2_8bit+0x30>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,214,0,0,0 // mov 0xd6(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,162 // jmp 9eb4 <_sk_load_a8_sse2_8bit+0x30>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,201 // movd %ecx,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,130 // jmp 9eb4 <_sk_load_a8_sse2_8bit+0x30>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,193,5 // pinsrw $0x5,%ecx,%xmm0
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,193,4 // pinsrw $0x4,%ecx,%xmm0
- .byte 102,15,110,12,51 // movd (%ebx,%esi,1),%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 233,78,255,255,255 // jmp 9eb4 <_sk_load_a8_sse2_8bit+0x30>
- .byte 102,144 // xchg %ax,%ax
- .byte 118,0 // jbe 9f6a <_sk_load_a8_sse2_8bit+0xe6>
- .byte 0,0 // add %al,(%eax)
- .byte 142,0 // mov (%eax),%es
- .byte 0,0 // add %al,(%eax)
- .byte 128,0,0 // addb $0x0,(%eax)
- .byte 0,194 // add %al,%dl
- .byte 0,0 // add %al,(%eax)
- .byte 0,184,0,0,0,174 // add %bh,-0x52000000(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
- .byte 160 // .byte 0xa0
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_a8_dst_sse2_8bit
-.globl _sk_load_a8_dst_sse2_8bit
-FUNCTION(_sk_load_a8_dst_sse2_8bit)
-_sk_load_a8_dst_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 9f92 <_sk_load_a8_dst_sse2_8bit+0xe>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,90,4 // mov 0x4(%edx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,26 // add (%edx),%ebx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 117,63 // jne 9fea <_sk_load_a8_dst_sse2_8bit+0x66>
- .byte 243,15,126,20,51 // movq (%ebx,%esi,1),%xmm2
- .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2
- .byte 102,15,219,151,222,104,0,0 // pand 0x68de(%edi),%xmm2
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
- .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
- .byte 102,15,114,242,24 // pslld $0x18,%xmm2
- .byte 102,15,114,243,24 // pslld $0x18,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 119,186 // ja 9fb4 <_sk_load_a8_dst_sse2_8bit+0x30>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,214,0,0,0 // mov 0xd6(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 235,162 // jmp 9fb4 <_sk_load_a8_dst_sse2_8bit+0x30>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 243,15,16,211 // movss %xmm3,%xmm2
- .byte 235,130 // jmp 9fb4 <_sk_load_a8_dst_sse2_8bit+0x30>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,196,209,6 // pinsrw $0x6,%ecx,%xmm2
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,209,5 // pinsrw $0x5,%ecx,%xmm2
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,209,4 // pinsrw $0x4,%ecx,%xmm2
- .byte 102,15,110,28,51 // movd (%ebx,%esi,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 242,15,16,211 // movsd %xmm3,%xmm2
- .byte 233,78,255,255,255 // jmp 9fb4 <_sk_load_a8_dst_sse2_8bit+0x30>
- .byte 102,144 // xchg %ax,%ax
- .byte 118,0 // jbe a06a <_sk_load_a8_dst_sse2_8bit+0xe6>
- .byte 0,0 // add %al,(%eax)
- .byte 142,0 // mov (%eax),%es
- .byte 0,0 // add %al,(%eax)
- .byte 128,0,0 // addb $0x0,(%eax)
- .byte 0,194 // add %al,%dl
- .byte 0,0 // add %al,(%eax)
- .byte 0,184,0,0,0,174 // add %bh,-0x52000000(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
- .byte 160 // .byte 0xa0
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_store_a8_sse2_8bit
-.globl _sk_store_a8_sse2_8bit
-FUNCTION(_sk_store_a8_sse2_8bit)
-_sk_store_a8_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call a092 <_sk_store_a8_sse2_8bit+0xe>
- .byte 91 // pop %ebx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,114,4 // mov 0x4(%edx),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
- .byte 3,50 // add (%edx),%esi
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,114,212,24 // psrld $0x18,%xmm4
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,114,213,24 // psrld $0x18,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,229 // packssdw %xmm5,%xmm4
- .byte 133,210 // test %edx,%edx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 117,37 // jne a0fa <_sk_store_a8_sse2_8bit+0x76>
- .byte 102,15,219,163,222,103,0,0 // pand 0x67de(%ebx),%xmm4
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,214,36,62 // movq %xmm4,(%esi,%edi,1)
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 87 // push %edi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 119,224 // ja a0e6 <_sk_store_a8_sse2_8bit+0x62>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,139,222,0,0,0 // mov 0xde(%ebx,%ecx,4),%ecx
- .byte 1,217 // add %ebx,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 136,12,62 // mov %cl,(%esi,%edi,1)
- .byte 235,201 // jmp a0e6 <_sk_store_a8_sse2_8bit+0x62>
- .byte 102,15,197,204,2 // pextrw $0x2,%xmm4,%ecx
- .byte 136,76,62,2 // mov %cl,0x2(%esi,%edi,1)
- .byte 102,15,219,163,222,103,0,0 // pand 0x67de(%ebx),%xmm4
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 102,137,12,62 // mov %cx,(%esi,%edi,1)
- .byte 235,170 // jmp a0e6 <_sk_store_a8_sse2_8bit+0x62>
- .byte 102,15,197,204,6 // pextrw $0x6,%xmm4,%ecx
- .byte 136,76,62,6 // mov %cl,0x6(%esi,%edi,1)
- .byte 102,15,197,204,5 // pextrw $0x5,%xmm4,%ecx
- .byte 136,76,62,5 // mov %cl,0x5(%esi,%edi,1)
- .byte 102,15,197,204,4 // pextrw $0x4,%xmm4,%ecx
- .byte 136,76,62,4 // mov %cl,0x4(%esi,%edi,1)
- .byte 102,15,219,163,222,103,0,0 // pand 0x67de(%ebx),%xmm4
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,126,36,62 // movd %xmm4,(%esi,%edi,1)
- .byte 233,121,255,255,255 // jmp a0e6 <_sk_store_a8_sse2_8bit+0x62>
- .byte 15,31,0 // nopl (%eax)
- .byte 130,0,0 // addb $0x0,(%eax)
- .byte 0,148,0,0,0,139,0 // add %dl,0x8b0000(%eax,%eax,1)
- .byte 0,0 // add %al,(%eax)
- .byte 197,0 // lds (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 188,0,0,0,179 // mov $0xb3000000,%esp
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
- .byte 170 // stos %al,%es:(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_g8_sse2_8bit
-.globl _sk_load_g8_sse2_8bit
-FUNCTION(_sk_load_g8_sse2_8bit)
-_sk_load_g8_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call a19a <_sk_load_g8_sse2_8bit+0xe>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,90,4 // mov 0x4(%edx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,26 // add (%edx),%ebx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,131,0,0,0 // jne a23a <_sk_load_g8_sse2_8bit+0xae>
- .byte 243,15,126,4,51 // movq (%ebx,%esi,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 102,15,219,135,214,102,0,0 // pand 0x66d6(%edi),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,97,225 // punpcklwd %xmm1,%xmm4
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,111,175,230,102,0,0 // movdqa 0x66e6(%edi),%xmm5
- .byte 102,15,112,240,245 // pshufd $0xf5,%xmm0,%xmm6
- .byte 102,15,244,197 // pmuludq %xmm5,%xmm0
- .byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
- .byte 102,15,244,245 // pmuludq %xmm5,%xmm6
- .byte 102,15,112,198,232 // pshufd $0xe8,%xmm6,%xmm0
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,15,112,244,245 // pshufd $0xf5,%xmm4,%xmm6
- .byte 102,15,244,229 // pmuludq %xmm5,%xmm4
- .byte 102,15,112,196,232 // pshufd $0xe8,%xmm4,%xmm0
- .byte 102,15,244,245 // pmuludq %xmm5,%xmm6
- .byte 102,15,112,230,232 // pshufd $0xe8,%xmm6,%xmm4
- .byte 102,15,98,196 // punpckldq %xmm4,%xmm0
- .byte 102,15,111,167,118,102,0,0 // movdqa 0x6676(%edi),%xmm4
- .byte 102,15,235,196 // por %xmm4,%xmm0
- .byte 102,15,235,204 // por %xmm4,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 15,135,114,255,255,255 // ja a1c0 <_sk_load_g8_sse2_8bit+0x34>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,38,1,0,0 // mov 0x126(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 233,87,255,255,255 // jmp a1c0 <_sk_load_g8_sse2_8bit+0x34>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,201 // movd %ecx,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 233,52,255,255,255 // jmp a1c0 <_sk_load_g8_sse2_8bit+0x34>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,193,5 // pinsrw $0x5,%ecx,%xmm0
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,193,4 // pinsrw $0x4,%ecx,%xmm0
- .byte 102,15,110,12,51 // movd (%ebx,%esi,1),%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 233,0,255,255,255 // jmp a1c0 <_sk_load_g8_sse2_8bit+0x34>
- .byte 194,0,0 // ret $0x0
- .byte 0,221 // add %bl,%ch
- .byte 0,0 // add %al,(%eax)
- .byte 0,207 // add %cl,%bh
- .byte 0,0 // add %al,(%eax)
- .byte 0,20,1 // add %dl,(%ecx,%eax,1)
- .byte 0,0 // add %al,(%eax)
- .byte 10,1 // or (%ecx),%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,1 // add %al,(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 242,0,0 // repnz add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_g8_dst_sse2_8bit
-.globl _sk_load_g8_dst_sse2_8bit
-FUNCTION(_sk_load_g8_dst_sse2_8bit)
-_sk_load_g8_dst_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call a2ea <_sk_load_g8_dst_sse2_8bit+0xe>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,90,4 // mov 0x4(%edx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,26 // add (%edx),%ebx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,131,0,0,0 // jne a38a <_sk_load_g8_dst_sse2_8bit+0xae>
- .byte 243,15,126,20,51 // movq (%ebx,%esi,1),%xmm2
- .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2
- .byte 102,15,219,151,134,101,0,0 // pand 0x6586(%edi),%xmm2
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,97,227 // punpcklwd %xmm3,%xmm4
- .byte 102,15,105,211 // punpckhwd %xmm3,%xmm2
- .byte 102,15,111,175,150,101,0,0 // movdqa 0x6596(%edi),%xmm5
- .byte 102,15,112,242,245 // pshufd $0xf5,%xmm2,%xmm6
- .byte 102,15,244,213 // pmuludq %xmm5,%xmm2
- .byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
- .byte 102,15,244,245 // pmuludq %xmm5,%xmm6
- .byte 102,15,112,214,232 // pshufd $0xe8,%xmm6,%xmm2
- .byte 102,15,98,218 // punpckldq %xmm2,%xmm3
- .byte 102,15,112,244,245 // pshufd $0xf5,%xmm4,%xmm6
- .byte 102,15,244,229 // pmuludq %xmm5,%xmm4
- .byte 102,15,112,212,232 // pshufd $0xe8,%xmm4,%xmm2
- .byte 102,15,244,245 // pmuludq %xmm5,%xmm6
- .byte 102,15,112,230,232 // pshufd $0xe8,%xmm6,%xmm4
- .byte 102,15,98,212 // punpckldq %xmm4,%xmm2
- .byte 102,15,111,167,38,101,0,0 // movdqa 0x6526(%edi),%xmm4
- .byte 102,15,235,212 // por %xmm4,%xmm2
- .byte 102,15,235,220 // por %xmm4,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 15,135,114,255,255,255 // ja a310 <_sk_load_g8_dst_sse2_8bit+0x34>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,38,1,0,0 // mov 0x126(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 233,87,255,255,255 // jmp a310 <_sk_load_g8_dst_sse2_8bit+0x34>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 243,15,16,211 // movss %xmm3,%xmm2
- .byte 233,52,255,255,255 // jmp a310 <_sk_load_g8_dst_sse2_8bit+0x34>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,196,209,6 // pinsrw $0x6,%ecx,%xmm2
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,209,5 // pinsrw $0x5,%ecx,%xmm2
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,209,4 // pinsrw $0x4,%ecx,%xmm2
- .byte 102,15,110,28,51 // movd (%ebx,%esi,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 242,15,16,211 // movsd %xmm3,%xmm2
- .byte 233,0,255,255,255 // jmp a310 <_sk_load_g8_dst_sse2_8bit+0x34>
- .byte 194,0,0 // ret $0x0
- .byte 0,221 // add %bl,%ch
- .byte 0,0 // add %al,(%eax)
- .byte 0,207 // add %cl,%bh
- .byte 0,0 // add %al,(%eax)
- .byte 0,20,1 // add %dl,(%ecx,%eax,1)
- .byte 0,0 // add %al,(%eax)
- .byte 10,1 // or (%ecx),%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,1 // add %al,(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 242,0,0 // repnz add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_srcover_rgba_8888_sse2_8bit
-.globl _sk_srcover_rgba_8888_sse2_8bit
-FUNCTION(_sk_srcover_rgba_8888_sse2_8bit)
-_sk_srcover_rgba_8888_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,41,157,120,255,255,255 // movaps %xmm3,-0x88(%ebp)
- .byte 102,15,127,85,136 // movdqa %xmm2,-0x78(%ebp)
- .byte 232,0,0,0,0 // call a446 <_sk_srcover_rgba_8888_sse2_8bit+0x1a>
- .byte 91 // pop %ebx
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,122,4 // mov 0x4(%edx),%edi
- .byte 15,175,249 // imul %ecx,%edi
- .byte 193,231,2 // shl $0x2,%edi
- .byte 3,58 // add (%edx),%edi
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,51,1,0,0 // jne a59b <_sk_srcover_rgba_8888_sse2_8bit+0x16f>
- .byte 102,15,16,20,183 // movupd (%edi,%esi,4),%xmm2
- .byte 15,16,116,183,16 // movups 0x10(%edi,%esi,4),%xmm6
- .byte 102,15,41,85,200 // movapd %xmm2,-0x38(%ebp)
- .byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
- .byte 242,15,112,217,231 // pshuflw $0xe7,%xmm1,%xmm3
- .byte 243,15,112,219,231 // pshufhw $0xe7,%xmm3,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,96,219 // punpcklbw %xmm3,%xmm3
- .byte 242,15,112,219,95 // pshuflw $0x5f,%xmm3,%xmm3
- .byte 243,15,112,219,95 // pshufhw $0x5f,%xmm3,%xmm3
- .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 242,15,112,101,184,231 // pshuflw $0xe7,-0x48(%ebp),%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm4
- .byte 102,15,87,210 // xorpd %xmm2,%xmm2
- .byte 102,15,111,109,200 // movdqa -0x38(%ebp),%xmm5
- .byte 102,15,96,234 // punpcklbw %xmm2,%xmm5
- .byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
- .byte 102,15,111,77,200 // movdqa -0x38(%ebp),%xmm1
- .byte 102,15,104,202 // punpckhbw %xmm2,%xmm1
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 102,15,96,194 // punpcklbw %xmm2,%xmm0
- .byte 102,15,104,242 // punpckhbw %xmm2,%xmm6
- .byte 102,15,127,117,168 // movdqa %xmm6,-0x58(%ebp)
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,96,250 // punpcklbw %xmm2,%xmm7
- .byte 102,15,104,226 // punpckhbw %xmm2,%xmm4
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,96,242 // punpcklbw %xmm2,%xmm6
- .byte 102,15,104,218 // punpckhbw %xmm2,%xmm3
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,253,253 // paddw %xmm5,%xmm7
- .byte 102,15,111,109,200 // movdqa -0x38(%ebp),%xmm5
- .byte 102,15,213,225 // pmullw %xmm1,%xmm4
- .byte 102,15,253,225 // paddw %xmm1,%xmm4
- .byte 102,15,111,77,152 // movdqa -0x68(%ebp),%xmm1
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,15,253,240 // paddw %xmm0,%xmm6
- .byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0
- .byte 102,15,213,216 // pmullw %xmm0,%xmm3
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,243 // packuswb %xmm3,%xmm6
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,111,69,184 // movdqa -0x48(%ebp),%xmm0
- .byte 102,15,111,85,216 // movdqa -0x28(%ebp),%xmm2
- .byte 102,15,248,214 // psubb %xmm6,%xmm2
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,93,216 // movdqa -0x28(%ebp),%xmm3
- .byte 102,15,248,239 // psubb %xmm7,%xmm5
- .byte 133,210 // test %edx,%edx
- .byte 102,15,252,232 // paddb %xmm0,%xmm5
- .byte 102,15,252,217 // paddb %xmm1,%xmm3
- .byte 117,98 // jne a5d2 <_sk_srcover_rgba_8888_sse2_8bit+0x1a6>
- .byte 243,15,127,44,183 // movdqu %xmm5,(%edi,%esi,4)
- .byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 141,120,8 // lea 0x8(%eax),%edi
- .byte 15,40,85,136 // movaps -0x78(%ebp),%xmm2
- .byte 15,40,157,120,255,255,255 // movaps -0x88(%ebp),%xmm3
- .byte 81 // push %ecx
- .byte 86 // push %esi
- .byte 87 // push %edi
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,140,0,0,0 // add $0x8c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,93,216 // mov %ebx,-0x28(%ebp)
- .byte 137,211 // mov %edx,%ebx
- .byte 136,93,200 // mov %bl,-0x38(%ebp)
- .byte 128,101,200,7 // andb $0x7,-0x38(%ebp)
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 254,77,200 // decb -0x38(%ebp)
- .byte 128,125,200,6 // cmpb $0x6,-0x38(%ebp)
- .byte 119,66 // ja a5fa <_sk_srcover_rgba_8888_sse2_8bit+0x1ce>
- .byte 15,182,93,200 // movzbl -0x38(%ebp),%ebx
- .byte 139,69,216 // mov -0x28(%ebp),%eax
- .byte 139,156,152,66,2,0,0 // mov 0x242(%eax,%ebx,4),%ebx
- .byte 3,93,216 // add -0x28(%ebp),%ebx
- .byte 255,227 // jmp *%ebx
- .byte 243,15,16,20,183 // movss (%edi,%esi,4),%xmm2
- .byte 235,109 // jmp a63f <_sk_srcover_rgba_8888_sse2_8bit+0x213>
- .byte 137,93,216 // mov %ebx,-0x28(%ebp)
- .byte 137,211 // mov %edx,%ebx
- .byte 128,227,7 // and $0x7,%bl
- .byte 254,203 // dec %bl
- .byte 128,251,6 // cmp $0x6,%bl
- .byte 119,154 // ja a57b <_sk_srcover_rgba_8888_sse2_8bit+0x14f>
- .byte 15,182,219 // movzbl %bl,%ebx
- .byte 139,77,216 // mov -0x28(%ebp),%ecx
- .byte 3,140,153,94,2,0,0 // add 0x25e(%ecx,%ebx,4),%ecx
- .byte 255,225 // jmp *%ecx
- .byte 102,15,126,44,183 // movd %xmm5,(%edi,%esi,4)
- .byte 233,131,0,0,0 // jmp a67d <_sk_srcover_rgba_8888_sse2_8bit+0x251>
- .byte 139,93,216 // mov -0x28(%ebp),%ebx
- .byte 233,112,254,255,255 // jmp a472 <_sk_srcover_rgba_8888_sse2_8bit+0x46>
- .byte 102,15,110,92,183,8 // movd 0x8(%edi,%esi,4),%xmm3
- .byte 102,15,112,211,69 // pshufd $0x45,%xmm3,%xmm2
- .byte 102,15,18,20,183 // movlpd (%edi,%esi,4),%xmm2
- .byte 235,43 // jmp a63f <_sk_srcover_rgba_8888_sse2_8bit+0x213>
- .byte 102,15,110,84,183,24 // movd 0x18(%edi,%esi,4),%xmm2
- .byte 102,15,112,242,69 // pshufd $0x45,%xmm2,%xmm6
- .byte 243,15,16,92,183,20 // movss 0x14(%edi,%esi,4),%xmm3
- .byte 15,198,222,0 // shufps $0x0,%xmm6,%xmm3
- .byte 15,198,222,226 // shufps $0xe2,%xmm6,%xmm3
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 243,15,16,92,183,16 // movss 0x10(%edi,%esi,4),%xmm3
- .byte 243,15,16,243 // movss %xmm3,%xmm6
- .byte 102,15,16,20,183 // movupd (%edi,%esi,4),%xmm2
- .byte 139,93,216 // mov -0x28(%ebp),%ebx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 233,40,254,255,255 // jmp a472 <_sk_srcover_rgba_8888_sse2_8bit+0x46>
- .byte 102,15,112,213,78 // pshufd $0x4e,%xmm5,%xmm2
- .byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
- .byte 102,15,214,44,183 // movq %xmm5,(%edi,%esi,4)
- .byte 235,33 // jmp a67d <_sk_srcover_rgba_8888_sse2_8bit+0x251>
- .byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
- .byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
- .byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
- .byte 102,15,126,84,183,20 // movd %xmm2,0x14(%edi,%esi,4)
- .byte 102,15,126,92,183,16 // movd %xmm3,0x10(%edi,%esi,4)
- .byte 243,15,127,44,183 // movdqu %xmm5,(%edi,%esi,4)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 233,246,254,255,255 // jmp a57b <_sk_srcover_rgba_8888_sse2_8bit+0x14f>
- .byte 15,31,0 // nopl (%eax)
- .byte 133,1 // test %eax,(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 199,1,0,0,188,1 // movl $0x1bc0000,(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 244 // hlt
- .byte 1,0 // add %eax,(%eax)
- .byte 0,234 // add %ch,%dl
- .byte 1,0 // add %eax,(%eax)
- .byte 0,217 // add %bl,%cl
- .byte 1,0 // add %eax,(%eax)
- .byte 0,206 // add %cl,%dh
- .byte 1,0 // add %eax,(%eax)
- .byte 0,170,1,0,0,15 // add %ch,0xf000001(%edx)
- .byte 2,0 // add (%eax),%al
- .byte 0,4,2 // add %al,(%edx,%eax,1)
- .byte 0,0 // add %al,(%eax)
- .byte 50,2 // xor (%edx),%al
- .byte 0,0 // add %al,(%eax)
- .byte 44,2 // sub $0x2,%al
- .byte 0,0 // add %al,(%eax)
- .byte 33,2 // and %eax,(%edx)
- .byte 0,0 // add %al,(%eax)
- .byte 22 // push %ss
- .byte 2,0 // add (%eax),%al
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_scale_1_float_sse2_8bit
-.globl _sk_scale_1_float_sse2_8bit
-FUNCTION(_sk_scale_1_float_sse2_8bit)
-_sk_scale_1_float_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,40 // sub $0x28,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 232,0,0,0,0 // call a6db <_sk_scale_1_float_sse2_8bit+0x1b>
- .byte 89 // pop %ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 243,15,16,2 // movss (%edx),%xmm0
- .byte 243,15,89,129,105,98,0,0 // mulss 0x6269(%ecx),%xmm0
- .byte 243,15,44,208 // cvttss2si %xmm0,%edx
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,111,213 // movdqa %xmm5,%xmm2
- .byte 102,15,96,214 // punpcklbw %xmm6,%xmm2
- .byte 102,15,104,238 // punpckhbw %xmm6,%xmm5
- .byte 102,15,96,206 // punpcklbw %xmm6,%xmm1
- .byte 102,15,104,230 // punpckhbw %xmm6,%xmm4
- .byte 102,15,110,242 // movd %edx,%xmm6
- .byte 102,15,96,246 // punpcklbw %xmm6,%xmm6
- .byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
- .byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,219,177,149,97,0,0 // pand 0x6195(%ecx),%xmm6
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,111,222 // movdqa %xmm6,%xmm3
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,213,242 // pmullw %xmm2,%xmm6
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,15,213,197 // pmullw %xmm5,%xmm0
- .byte 102,15,253,197 // paddw %xmm5,%xmm0
- .byte 102,15,213,217 // pmullw %xmm1,%xmm3
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,207 // packuswb %xmm7,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,103,208 // packuswb %xmm0,%xmm2
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,56 // add $0x38,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_scale_u8_sse2_8bit
-.globl _sk_scale_u8_sse2_8bit
-FUNCTION(_sk_scale_u8_sse2_8bit)
-_sk_scale_u8_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,60 // sub $0x3c,%esp
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 232,0,0,0,0 // call a7a3 <_sk_scale_u8_sse2_8bit+0x17>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,90,4 // mov 0x4(%edx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,26 // add (%edx),%ebx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,11,1,0,0 // jne a8cb <_sk_scale_u8_sse2_8bit+0x13f>
- .byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,219,167,205,96,0,0 // pand 0x60cd(%edi),%xmm4
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,105,234 // punpckhwd %xmm2,%xmm5
- .byte 102,15,97,226 // punpcklwd %xmm2,%xmm4
- .byte 102,15,114,244,24 // pslld $0x18,%xmm4
- .byte 102,15,114,245,24 // pslld $0x18,%xmm5
- .byte 242,15,112,237,231 // pshuflw $0xe7,%xmm5,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,245,95 // pshufhw $0x5f,%xmm5,%xmm6
- .byte 242,15,112,228,231 // pshuflw $0xe7,%xmm4,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,252,95 // pshufhw $0x5f,%xmm4,%xmm7
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,96,221 // punpcklbw %xmm5,%xmm3
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,96,213 // punpcklbw %xmm5,%xmm2
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,104,205 // punpckhbw %xmm5,%xmm1
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,96,229 // punpcklbw %xmm5,%xmm4
- .byte 102,15,104,253 // punpckhbw %xmm5,%xmm7
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,96,234 // punpcklbw %xmm2,%xmm5
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,104,242 // punpckhbw %xmm2,%xmm6
- .byte 102,15,213,227 // pmullw %xmm3,%xmm4
- .byte 102,15,253,227 // paddw %xmm3,%xmm4
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 102,15,111,69,216 // movdqa -0x28(%ebp),%xmm0
- .byte 102,15,213,232 // pmullw %xmm0,%xmm5
- .byte 102,15,253,232 // paddw %xmm0,%xmm5
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,15,253,241 // paddw %xmm1,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,231 // packuswb %xmm7,%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,76 // add $0x4c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 15,135,234,254,255,255 // ja a7c9 <_sk_scale_u8_sse2_8bit+0x3d>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,177,1,0,0 // mov 0x1b1(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 233,207,254,255,255 // jmp a7c9 <_sk_scale_u8_sse2_8bit+0x3d>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 243,15,16,227 // movss %xmm3,%xmm4
- .byte 233,172,254,255,255 // jmp a7c9 <_sk_scale_u8_sse2_8bit+0x3d>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,225,5 // pinsrw $0x5,%ecx,%xmm4
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,225,4 // pinsrw $0x4,%ecx,%xmm4
- .byte 102,15,110,28,51 // movd (%ebx,%esi,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 242,15,16,227 // movsd %xmm3,%xmm4
- .byte 233,120,254,255,255 // jmp a7c9 <_sk_scale_u8_sse2_8bit+0x3d>
- .byte 15,31,0 // nopl (%eax)
- .byte 74 // dec %edx
- .byte 1,0 // add %eax,(%eax)
- .byte 0,101,1 // add %ah,0x1(%ebp)
- .byte 0,0 // add %al,(%eax)
- .byte 87 // push %edi
- .byte 1,0 // add %eax,(%eax)
- .byte 0,156,1,0,0,146,1 // add %bl,0x1920000(%ecx,%eax,1)
- .byte 0,0 // add %al,(%eax)
- .byte 136,1 // mov %al,(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 122,1 // jp a96f <_sk_scale_u8_sse2_8bit+0x1e3>
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_lerp_1_float_sse2_8bit
-.globl _sk_lerp_1_float_sse2_8bit
-FUNCTION(_sk_lerp_1_float_sse2_8bit)
-_sk_lerp_1_float_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,56 // sub $0x38,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
- .byte 232,0,0,0,0 // call a983 <_sk_lerp_1_float_sse2_8bit+0x13>
- .byte 89 // pop %ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 243,15,16,18 // movss (%edx),%xmm2
- .byte 243,15,89,145,193,95,0,0 // mulss 0x5fc1(%ecx),%xmm2
- .byte 243,15,44,210 // cvttss2si %xmm2,%edx
- .byte 102,15,110,210 // movd %edx,%xmm2
- .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2
- .byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
- .byte 102,15,112,242,80 // pshufd $0x50,%xmm2,%xmm6
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,96,250 // punpcklbw %xmm2,%xmm7
- .byte 102,15,111,153,237,94,0,0 // movdqa 0x5eed(%ecx),%xmm3
- .byte 102,15,219,222 // pand %xmm6,%xmm3
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,104,199 // punpckhbw %xmm7,%xmm0
- .byte 102,15,213,208 // pmullw %xmm0,%xmm2
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,96,199 // punpcklbw %xmm7,%xmm0
- .byte 102,15,213,232 // pmullw %xmm0,%xmm5
- .byte 102,15,253,232 // paddw %xmm0,%xmm5
- .byte 102,15,104,207 // punpckhbw %xmm7,%xmm1
- .byte 102,15,213,225 // pmullw %xmm1,%xmm4
- .byte 102,15,253,225 // paddw %xmm1,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,236 // packuswb %xmm4,%xmm5
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,103,218 // packuswb %xmm2,%xmm3
- .byte 102,15,118,255 // pcmpeqd %xmm7,%xmm7
- .byte 102,15,239,254 // pxor %xmm6,%xmm7
- .byte 102,15,111,117,232 // movdqa -0x18(%ebp),%xmm6
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,96,209 // punpcklbw %xmm1,%xmm2
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,15,104,225 // punpckhbw %xmm1,%xmm4
- .byte 102,15,111,69,216 // movdqa -0x28(%ebp),%xmm0
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,96,241 // punpcklbw %xmm1,%xmm6
- .byte 102,15,104,193 // punpckhbw %xmm1,%xmm0
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,104,249 // punpckhbw %xmm1,%xmm7
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,253,194 // paddw %xmm2,%xmm0
- .byte 102,15,111,215 // movdqa %xmm7,%xmm2
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,253,206 // paddw %xmm6,%xmm1
- .byte 102,15,111,101,200 // movdqa -0x38(%ebp),%xmm4
- .byte 102,15,213,212 // pmullw %xmm4,%xmm2
- .byte 102,15,253,212 // paddw %xmm4,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,202 // packuswb %xmm2,%xmm1
- .byte 102,15,252,205 // paddb %xmm5,%xmm1
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 102,15,252,195 // paddb %xmm3,%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,72 // add $0x48,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_lerp_u8_sse2_8bit
-.globl _sk_lerp_u8_sse2_8bit
-FUNCTION(_sk_lerp_u8_sse2_8bit)
-_sk_lerp_u8_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 232,0,0,0,0 // call aaeb <_sk_lerp_u8_sse2_8bit+0x17>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,90,4 // mov 0x4(%edx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,26 // add (%edx),%ebx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 133,210 // test %edx,%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,181,1,0,0 // jne acbd <_sk_lerp_u8_sse2_8bit+0x1e9>
- .byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,219,167,133,93,0,0 // pand 0x5d85(%edi),%xmm4
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,105,218 // punpckhwd %xmm2,%xmm3
- .byte 102,15,97,226 // punpcklwd %xmm2,%xmm4
- .byte 102,15,114,244,24 // pslld $0x18,%xmm4
- .byte 102,15,114,243,24 // pslld $0x18,%xmm3
- .byte 242,15,112,219,231 // pshuflw $0xe7,%xmm3,%xmm3
- .byte 243,15,112,219,231 // pshufhw $0xe7,%xmm3,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,96,219 // punpcklbw %xmm3,%xmm3
- .byte 242,15,112,219,95 // pshuflw $0x5f,%xmm3,%xmm3
- .byte 243,15,112,219,95 // pshufhw $0x5f,%xmm3,%xmm3
- .byte 242,15,112,228,231 // pshuflw $0xe7,%xmm4,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,252,95 // pshufhw $0x5f,%xmm4,%xmm7
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,96,236 // punpcklbw %xmm4,%xmm5
- .byte 102,15,104,196 // punpckhbw %xmm4,%xmm0
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2
- .byte 102,15,104,204 // punpckhbw %xmm4,%xmm1
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,96,244 // punpcklbw %xmm4,%xmm6
- .byte 102,15,213,245 // pmullw %xmm5,%xmm6
- .byte 102,15,253,245 // paddw %xmm5,%xmm6
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,104,229 // punpckhbw %xmm5,%xmm4
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 102,15,213,234 // pmullw %xmm2,%xmm5
- .byte 102,15,253,234 // paddw %xmm2,%xmm5
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,104,194 // punpckhbw %xmm2,%xmm0
- .byte 102,15,213,193 // pmullw %xmm1,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,232 // packuswb %xmm0,%xmm5
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,244 // packuswb %xmm4,%xmm6
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,239,216 // pxor %xmm0,%xmm3
- .byte 102,15,239,248 // pxor %xmm0,%xmm7
- .byte 102,15,111,69,216 // movdqa -0x28(%ebp),%xmm0
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4
- .byte 102,15,104,194 // punpckhbw %xmm2,%xmm0
- .byte 102,15,127,69,152 // movdqa %xmm0,-0x68(%ebp)
- .byte 102,15,111,69,200 // movdqa -0x38(%ebp),%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,96,202 // punpcklbw %xmm2,%xmm1
- .byte 102,15,127,77,168 // movdqa %xmm1,-0x58(%ebp)
- .byte 102,15,104,194 // punpckhbw %xmm2,%xmm0
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,96,194 // punpcklbw %xmm2,%xmm0
- .byte 102,15,104,250 // punpckhbw %xmm2,%xmm7
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,96,202 // punpcklbw %xmm2,%xmm1
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,104,218 // punpckhbw %xmm2,%xmm3
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,15,111,85,152 // movdqa -0x68(%ebp),%xmm2
- .byte 102,15,213,250 // pmullw %xmm2,%xmm7
- .byte 102,15,253,250 // paddw %xmm2,%xmm7
- .byte 102,15,111,85,168 // movdqa -0x58(%ebp),%xmm2
- .byte 102,15,213,202 // pmullw %xmm2,%xmm1
- .byte 102,15,253,202 // paddw %xmm2,%xmm1
- .byte 102,15,111,85,184 // movdqa -0x48(%ebp),%xmm2
- .byte 102,15,213,218 // pmullw %xmm2,%xmm3
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,203 // packuswb %xmm3,%xmm1
- .byte 102,15,252,205 // paddb %xmm5,%xmm1
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 102,15,252,198 // paddb %xmm6,%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 82 // push %edx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 15,135,64,254,255,255 // ja ab11 <_sk_lerp_u8_sse2_8bit+0x3d>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,89,2,0,0 // mov 0x259(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 233,37,254,255,255 // jmp ab11 <_sk_lerp_u8_sse2_8bit+0x3d>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 243,15,16,227 // movss %xmm3,%xmm4
- .byte 233,2,254,255,255 // jmp ab11 <_sk_lerp_u8_sse2_8bit+0x3d>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,225,5 // pinsrw $0x5,%ecx,%xmm4
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,225,4 // pinsrw $0x4,%ecx,%xmm4
- .byte 102,15,110,28,51 // movd (%ebx,%esi,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 242,15,16,227 // movsd %xmm3,%xmm4
- .byte 233,206,253,255,255 // jmp ab11 <_sk_lerp_u8_sse2_8bit+0x3d>
- .byte 144 // nop
- .byte 244 // hlt
- .byte 1,0 // add %eax,(%eax)
- .byte 0,15 // add %cl,(%edi)
- .byte 2,0 // add (%eax),%al
- .byte 0,1 // add %al,(%ecx)
- .byte 2,0 // add (%eax),%al
- .byte 0,70,2 // add %al,0x2(%esi)
- .byte 0,0 // add %al,(%eax)
- .byte 60,2 // cmp $0x2,%al
- .byte 0,0 // add %al,(%eax)
- .byte 50,2 // xor (%edx),%al
- .byte 0,0 // add %al,(%eax)
- .byte 36,2 // and $0x2,%al
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_move_src_dst_sse2_8bit
-.globl _sk_move_src_dst_sse2_8bit
-FUNCTION(_sk_move_src_dst_sse2_8bit)
-_sk_move_src_dst_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_move_dst_src_sse2_8bit
-.globl _sk_move_dst_src_sse2_8bit
-FUNCTION(_sk_move_dst_src_sse2_8bit)
-_sk_move_dst_src_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_black_color_sse2_8bit
-.globl _sk_black_color_sse2_8bit
-FUNCTION(_sk_black_color_sse2_8bit)
-_sk_black_color_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call adb1 <_sk_black_color_sse2_8bit+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 15,40,128,95,90,0,0 // movaps 0x5a5f(%eax),%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 82 // push %edx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_white_color_sse2_8bit
-.globl _sk_white_color_sse2_8bit
-FUNCTION(_sk_white_color_sse2_8bit)
-_sk_white_color_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clear_sse2_8bit
-.globl _sk_clear_sse2_8bit
-FUNCTION(_sk_clear_sse2_8bit)
-_sk_clear_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcatop_sse2_8bit
-.globl _sk_srcatop_sse2_8bit
-FUNCTION(_sk_srcatop_sse2_8bit)
-_sk_srcatop_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,127,117,232 // movdqa %xmm6,-0x18(%ebp)
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 242,15,112,194,231 // pshuflw $0xe7,%xmm2,%xmm0
- .byte 243,15,112,208,231 // pshufhw $0xe7,%xmm0,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2
- .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2
- .byte 243,15,112,250,95 // pshufhw $0x5f,%xmm2,%xmm7
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,96,211 // punpcklbw %xmm3,%xmm2
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,96,195 // punpcklbw %xmm3,%xmm0
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,253,194 // paddw %xmm2,%xmm0
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,104,251 // punpckhbw %xmm3,%xmm7
- .byte 102,15,213,250 // pmullw %xmm2,%xmm7
- .byte 102,15,253,250 // paddw %xmm2,%xmm7
- .byte 242,15,112,214,231 // pshuflw $0xe7,%xmm6,%xmm2
- .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2
- .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2
- .byte 243,15,112,210,95 // pshufhw $0x5f,%xmm2,%xmm2
- .byte 102,15,96,203 // punpcklbw %xmm3,%xmm1
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,96,243 // punpcklbw %xmm3,%xmm6
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,15,253,241 // paddw %xmm1,%xmm6
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,104,203 // punpckhbw %xmm3,%xmm1
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,15,253,209 // paddw %xmm1,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,242 // packuswb %xmm2,%xmm6
- .byte 242,15,112,212,231 // pshuflw $0xe7,%xmm4,%xmm2
- .byte 242,15,112,205,231 // pshuflw $0xe7,%xmm5,%xmm1
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
- .byte 243,15,112,194,231 // pshufhw $0xe7,%xmm2,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,248,95 // pshufhw $0x5f,%xmm0,%xmm7
- .byte 243,15,112,193,231 // pshufhw $0xe7,%xmm1,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,208,95 // pshufhw $0x5f,%xmm0,%xmm2
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,239,208 // pxor %xmm0,%xmm2
- .byte 102,15,239,248 // pxor %xmm0,%xmm7
- .byte 102,15,111,101,216 // movdqa -0x28(%ebp),%xmm4
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,96,217 // punpcklbw %xmm1,%xmm3
- .byte 102,15,127,93,200 // movdqa %xmm3,-0x38(%ebp)
- .byte 102,15,104,225 // punpckhbw %xmm1,%xmm4
- .byte 102,15,111,69,232 // movdqa -0x18(%ebp),%xmm0
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,96,233 // punpcklbw %xmm1,%xmm5
- .byte 102,15,104,193 // punpckhbw %xmm1,%xmm0
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
- .byte 102,15,104,249 // punpckhbw %xmm1,%xmm7
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,96,203 // punpcklbw %xmm3,%xmm1
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,111,93,200 // movdqa -0x38(%ebp),%xmm3
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,253,195 // paddw %xmm3,%xmm0
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,253,205 // paddw %xmm5,%xmm1
- .byte 102,15,111,93,184 // movdqa -0x48(%ebp),%xmm3
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,15,253,211 // paddw %xmm3,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,202 // packuswb %xmm2,%xmm1
- .byte 102,15,252,206 // paddb %xmm6,%xmm1
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 102,15,252,69,168 // paddb -0x58(%ebp),%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstatop_sse2_8bit
-.globl _sk_dstatop_sse2_8bit
-FUNCTION(_sk_dstatop_sse2_8bit)
-_sk_dstatop_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 242,15,112,208,231 // pshuflw $0xe7,%xmm0,%xmm2
- .byte 243,15,112,194,231 // pshufhw $0xe7,%xmm2,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,192,95 // pshufhw $0x5f,%xmm0,%xmm0
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,96,250 // punpcklbw %xmm2,%xmm7
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,127,109,168 // movdqa %xmm5,-0x58(%ebp)
- .byte 102,15,104,226 // punpckhbw %xmm2,%xmm4
- .byte 102,15,104,194 // punpckhbw %xmm2,%xmm0
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 243,15,112,204,231 // pshufhw $0xe7,%xmm4,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,201,95 // pshufhw $0x5f,%xmm1,%xmm1
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,96,242 // punpcklbw %xmm2,%xmm6
- .byte 102,15,213,244 // pmullw %xmm4,%xmm6
- .byte 102,15,253,244 // paddw %xmm4,%xmm6
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
- .byte 102,15,104,226 // punpckhbw %xmm2,%xmm4
- .byte 102,15,104,202 // punpckhbw %xmm2,%xmm1
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,241 // packuswb %xmm1,%xmm6
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,248 // packuswb %xmm0,%xmm7
- .byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
- .byte 242,15,112,197,231 // pshuflw $0xe7,%xmm5,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,200,95 // pshufhw $0x5f,%xmm0,%xmm1
- .byte 242,15,112,195,231 // pshuflw $0xe7,%xmm3,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,192,95 // pshufhw $0x5f,%xmm0,%xmm0
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,239,196 // pxor %xmm4,%xmm0
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 102,15,111,85,216 // movdqa -0x28(%ebp),%xmm2
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,96,227 // punpcklbw %xmm3,%xmm4
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,85,232 // movdqa -0x18(%ebp),%xmm2
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,96,235 // punpcklbw %xmm3,%xmm5
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,96,211 // punpcklbw %xmm3,%xmm2
- .byte 102,15,104,203 // punpckhbw %xmm3,%xmm1
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,96,223 // punpcklbw %xmm7,%xmm3
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,104,199 // punpckhbw %xmm7,%xmm0
- .byte 102,15,213,212 // pmullw %xmm4,%xmm2
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 102,15,111,85,216 // movdqa -0x28(%ebp),%xmm2
- .byte 102,15,213,202 // pmullw %xmm2,%xmm1
- .byte 102,15,253,202 // paddw %xmm2,%xmm1
- .byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,253,235 // paddw %xmm3,%xmm5
- .byte 102,15,111,85,232 // movdqa -0x18(%ebp),%xmm2
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,253,194 // paddw %xmm2,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,232 // packuswb %xmm0,%xmm5
- .byte 102,15,252,238 // paddb %xmm6,%xmm5
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,225 // packuswb %xmm1,%xmm4
- .byte 102,15,252,101,200 // paddb -0x38(%ebp),%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcin_sse2_8bit
-.globl _sk_srcin_sse2_8bit
-FUNCTION(_sk_srcin_sse2_8bit)
-_sk_srcin_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,56 // sub $0x38,%esp
- .byte 102,15,127,93,200 // movdqa %xmm3,-0x38(%ebp)
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 242,15,112,195,231 // pshuflw $0xe7,%xmm3,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,240,95 // pshufhw $0x5f,%xmm0,%xmm6
- .byte 242,15,112,194,231 // pshuflw $0xe7,%xmm2,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,248,95 // pshufhw $0x5f,%xmm0,%xmm7
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,96,195 // punpcklbw %xmm3,%xmm0
- .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,96,235 // punpcklbw %xmm3,%xmm5
- .byte 102,15,104,203 // punpckhbw %xmm3,%xmm1
- .byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
- .byte 102,15,96,203 // punpcklbw %xmm3,%xmm1
- .byte 102,15,104,251 // punpckhbw %xmm3,%xmm7
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,96,211 // punpcklbw %xmm3,%xmm2
- .byte 102,15,104,243 // punpckhbw %xmm3,%xmm6
- .byte 102,15,213,200 // pmullw %xmm0,%xmm1
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,15,213,213 // pmullw %xmm5,%xmm2
- .byte 102,15,253,234 // paddw %xmm2,%xmm5
- .byte 102,15,111,77,232 // movdqa -0x18(%ebp),%xmm1
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,15,253,241 // paddw %xmm1,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,238 // packuswb %xmm6,%xmm5
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,199 // packuswb %xmm7,%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,72 // add $0x48,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstin_sse2_8bit
-.globl _sk_dstin_sse2_8bit
-FUNCTION(_sk_dstin_sse2_8bit)
-_sk_dstin_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,56 // sub $0x38,%esp
- .byte 242,15,112,201,231 // pshuflw $0xe7,%xmm1,%xmm1
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,225,95 // pshufhw $0x5f,%xmm1,%xmm4
- .byte 242,15,112,192,231 // pshuflw $0xe7,%xmm0,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,232,95 // pshufhw $0x5f,%xmm0,%xmm5
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,96,254 // punpcklbw %xmm6,%xmm7
- .byte 102,15,104,214 // punpckhbw %xmm6,%xmm2
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 102,15,96,222 // punpcklbw %xmm6,%xmm3
- .byte 102,15,104,198 // punpckhbw %xmm6,%xmm0
- .byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,96,198 // punpcklbw %xmm6,%xmm0
- .byte 102,15,104,238 // punpckhbw %xmm6,%xmm5
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,96,206 // punpcklbw %xmm6,%xmm1
- .byte 102,15,104,230 // punpckhbw %xmm6,%xmm4
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,213,234 // pmullw %xmm2,%xmm5
- .byte 102,15,253,234 // paddw %xmm2,%xmm5
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,111,85,232 // movdqa -0x18(%ebp),%xmm2
- .byte 102,15,213,226 // pmullw %xmm2,%xmm4
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,204 // packuswb %xmm4,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,197 // packuswb %xmm5,%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,72 // add $0x48,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcout_sse2_8bit
-.globl _sk_srcout_sse2_8bit
-FUNCTION(_sk_srcout_sse2_8bit)
-_sk_srcout_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,56 // sub $0x38,%esp
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,127,109,216 // movdqa %xmm5,-0x28(%ebp)
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 242,15,112,226,231 // pshuflw $0xe7,%xmm2,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,244,95 // pshufhw $0x5f,%xmm4,%xmm6
- .byte 242,15,112,229,231 // pshuflw $0xe7,%xmm5,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,252,95 // pshufhw $0x5f,%xmm4,%xmm7
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,239,244 // pxor %xmm4,%xmm6
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4
- .byte 102,15,104,218 // punpckhbw %xmm2,%xmm3
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,96,234 // punpcklbw %xmm2,%xmm5
- .byte 102,15,104,202 // punpckhbw %xmm2,%xmm1
- .byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,96,194 // punpcklbw %xmm2,%xmm0
- .byte 102,15,104,242 // punpckhbw %xmm2,%xmm6
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
- .byte 102,15,96,202 // punpcklbw %xmm2,%xmm1
- .byte 102,15,104,250 // punpckhbw %xmm2,%xmm7
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,253,243 // paddw %xmm3,%xmm6
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,253,233 // paddw %xmm1,%xmm5
- .byte 102,15,111,69,232 // movdqa -0x18(%ebp),%xmm0
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,239 // packuswb %xmm7,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,230 // packuswb %xmm6,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,72 // add $0x48,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstout_sse2_8bit
-.globl _sk_dstout_sse2_8bit
-FUNCTION(_sk_dstout_sse2_8bit)
-_sk_dstout_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,56 // sub $0x38,%esp
- .byte 242,15,112,192,231 // pshuflw $0xe7,%xmm0,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,224,95 // pshufhw $0x5f,%xmm0,%xmm4
- .byte 242,15,112,193,231 // pshuflw $0xe7,%xmm1,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,232,95 // pshufhw $0x5f,%xmm0,%xmm5
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,239,232 // pxor %xmm0,%xmm5
- .byte 102,15,239,224 // pxor %xmm0,%xmm4
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,96,254 // punpcklbw %xmm6,%xmm7
- .byte 102,15,104,214 // punpckhbw %xmm6,%xmm2
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 102,15,96,222 // punpcklbw %xmm6,%xmm3
- .byte 102,15,104,198 // punpckhbw %xmm6,%xmm0
- .byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,96,198 // punpcklbw %xmm6,%xmm0
- .byte 102,15,104,230 // punpckhbw %xmm6,%xmm4
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,96,206 // punpcklbw %xmm6,%xmm1
- .byte 102,15,104,238 // punpckhbw %xmm6,%xmm5
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,213,226 // pmullw %xmm2,%xmm4
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,111,85,232 // movdqa -0x18(%ebp),%xmm2
- .byte 102,15,213,234 // pmullw %xmm2,%xmm5
- .byte 102,15,253,234 // paddw %xmm2,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,205 // packuswb %xmm5,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,196 // packuswb %xmm4,%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,72 // add $0x48,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcover_sse2_8bit
-.globl _sk_srcover_sse2_8bit
-FUNCTION(_sk_srcover_sse2_8bit)
-_sk_srcover_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,127,117,216 // movdqa %xmm6,-0x28(%ebp)
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 102,15,127,77,168 // movdqa %xmm1,-0x58(%ebp)
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm4
- .byte 242,15,112,232,231 // pshuflw $0xe7,%xmm0,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,237,95 // pshufhw $0x5f,%xmm5,%xmm5
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,104,200 // punpckhbw %xmm0,%xmm1
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,96,208 // punpcklbw %xmm0,%xmm2
- .byte 102,15,104,240 // punpckhbw %xmm0,%xmm6
- .byte 102,15,127,117,232 // movdqa %xmm6,-0x18(%ebp)
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,96,240 // punpcklbw %xmm0,%xmm6
- .byte 102,15,104,232 // punpckhbw %xmm0,%xmm5
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 102,15,104,224 // punpckhbw %xmm0,%xmm4
- .byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,253,243 // paddw %xmm3,%xmm6
- .byte 102,15,213,233 // pmullw %xmm1,%xmm5
- .byte 102,15,253,233 // paddw %xmm1,%xmm5
- .byte 102,15,213,250 // pmullw %xmm2,%xmm7
- .byte 102,15,253,250 // paddw %xmm2,%xmm7
- .byte 102,15,111,69,232 // movdqa -0x18(%ebp),%xmm0
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,245 // packuswb %xmm5,%xmm6
- .byte 102,15,111,93,216 // movdqa -0x28(%ebp),%xmm3
- .byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0
- .byte 102,15,252,195 // paddb %xmm3,%xmm0
- .byte 102,15,248,199 // psubb %xmm7,%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,85,200 // movdqa -0x38(%ebp),%xmm2
- .byte 102,15,111,69,184 // movdqa -0x48(%ebp),%xmm0
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,248,198 // psubb %xmm6,%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstover_sse2_8bit
-.globl _sk_dstover_sse2_8bit
-FUNCTION(_sk_dstover_sse2_8bit)
-_sk_dstover_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 102,15,127,93,168 // movdqa %xmm3,-0x58(%ebp)
- .byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,127,117,216 // movdqa %xmm6,-0x28(%ebp)
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 242,15,112,227,231 // pshuflw $0xe7,%xmm3,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm4
- .byte 242,15,112,234,231 // pshuflw $0xe7,%xmm2,%xmm5
- .byte 243,15,112,237,231 // pshufhw $0xe7,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,96,237 // punpcklbw %xmm5,%xmm5
- .byte 242,15,112,237,95 // pshuflw $0x5f,%xmm5,%xmm5
- .byte 243,15,112,237,95 // pshufhw $0x5f,%xmm5,%xmm5
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 102,15,104,208 // punpckhbw %xmm0,%xmm2
- .byte 102,15,111,222 // movdqa %xmm6,%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 102,15,104,240 // punpckhbw %xmm0,%xmm6
- .byte 102,15,127,117,232 // movdqa %xmm6,-0x18(%ebp)
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,96,240 // punpcklbw %xmm0,%xmm6
- .byte 102,15,104,232 // punpckhbw %xmm0,%xmm5
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 102,15,104,224 // punpckhbw %xmm0,%xmm4
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,15,253,241 // paddw %xmm1,%xmm6
- .byte 102,15,213,234 // pmullw %xmm2,%xmm5
- .byte 102,15,253,234 // paddw %xmm2,%xmm5
- .byte 102,15,213,251 // pmullw %xmm3,%xmm7
- .byte 102,15,253,251 // paddw %xmm3,%xmm7
- .byte 102,15,111,69,232 // movdqa -0x18(%ebp),%xmm0
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,245 // packuswb %xmm5,%xmm6
- .byte 102,15,111,69,216 // movdqa -0x28(%ebp),%xmm0
- .byte 102,15,111,93,168 // movdqa -0x58(%ebp),%xmm3
- .byte 102,15,252,195 // paddb %xmm3,%xmm0
- .byte 102,15,248,199 // psubb %xmm7,%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,85,184 // movdqa -0x48(%ebp),%xmm2
- .byte 102,15,111,69,200 // movdqa -0x38(%ebp),%xmm0
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,248,198 // psubb %xmm6,%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_modulate_sse2_8bit
-.globl _sk_modulate_sse2_8bit
-FUNCTION(_sk_modulate_sse2_8bit)
-_sk_modulate_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,56 // sub $0x38,%esp
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,111,215 // movdqa %xmm7,%xmm2
- .byte 102,15,96,213 // punpcklbw %xmm5,%xmm2
- .byte 102,15,104,253 // punpckhbw %xmm5,%xmm7
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,96,205 // punpcklbw %xmm5,%xmm1
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,96,229 // punpcklbw %xmm5,%xmm4
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,104,245 // punpckhbw %xmm5,%xmm6
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,213,226 // pmullw %xmm2,%xmm4
- .byte 102,15,253,212 // paddw %xmm4,%xmm2
- .byte 102,15,213,247 // pmullw %xmm7,%xmm6
- .byte 102,15,253,247 // paddw %xmm7,%xmm6
- .byte 102,15,213,217 // pmullw %xmm1,%xmm3
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,111,93,216 // movdqa -0x28(%ebp),%xmm3
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,253,195 // paddw %xmm3,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,200 // packuswb %xmm0,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,103,214 // packuswb %xmm6,%xmm2
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,72 // add $0x48,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_multiply_sse2_8bit
-.globl _sk_multiply_sse2_8bit
-FUNCTION(_sk_multiply_sse2_8bit)
-_sk_multiply_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 129,236,152,0,0,0 // sub $0x98,%esp
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,127,101,232 // movdqa %xmm4,-0x18(%ebp)
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 242,15,112,228,231 // pshuflw $0xe7,%xmm4,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,196,95 // pshufhw $0x5f,%xmm4,%xmm0
- .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2
- .byte 102,15,239,194 // pxor %xmm2,%xmm0
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,96,245 // punpcklbw %xmm5,%xmm6
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,104,245 // punpckhbw %xmm5,%xmm6
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,96,213 // punpcklbw %xmm5,%xmm2
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,127,181,120,255,255,255 // movdqa %xmm6,-0x88(%ebp)
- .byte 102,15,127,189,104,255,255,255 // movdqa %xmm7,-0x98(%ebp)
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,253,198 // paddw %xmm6,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,103,208 // packuswb %xmm0,%xmm2
- .byte 102,15,127,85,168 // movdqa %xmm2,-0x58(%ebp)
- .byte 102,15,111,85,216 // movdqa -0x28(%ebp),%xmm2
- .byte 242,15,112,226,231 // pshuflw $0xe7,%xmm2,%xmm4
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,228,95 // pshufhw $0x5f,%xmm4,%xmm4
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,239,224 // pxor %xmm0,%xmm4
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,96,245 // punpcklbw %xmm5,%xmm6
- .byte 102,15,127,117,152 // movdqa %xmm6,-0x68(%ebp)
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,127,69,136 // movdqa %xmm0,-0x78(%ebp)
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,96,253 // punpcklbw %xmm5,%xmm7
- .byte 102,15,104,229 // punpckhbw %xmm5,%xmm4
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,213,254 // pmullw %xmm6,%xmm7
- .byte 102,15,253,254 // paddw %xmm6,%xmm7
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
- .byte 242,15,112,193,231 // pshuflw $0xe7,%xmm1,%xmm0
- .byte 242,15,112,203,231 // pshuflw $0xe7,%xmm3,%xmm1
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,192,95 // pshufhw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,201,95 // pshufhw $0x5f,%xmm1,%xmm1
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,239,203 // pxor %xmm3,%xmm1
- .byte 102,15,239,195 // pxor %xmm3,%xmm0
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,96,245 // punpcklbw %xmm5,%xmm6
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
- .byte 102,15,111,109,232 // movdqa -0x18(%ebp),%xmm5
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,96,227 // punpcklbw %xmm3,%xmm4
- .byte 102,15,104,235 // punpckhbw %xmm3,%xmm5
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,96,218 // punpcklbw %xmm2,%xmm3
- .byte 102,15,104,194 // punpckhbw %xmm2,%xmm0
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,96,215 // punpcklbw %xmm7,%xmm2
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,104,207 // punpckhbw %xmm7,%xmm1
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,213,212 // pmullw %xmm4,%xmm2
- .byte 102,15,253,212 // paddw %xmm4,%xmm2
- .byte 102,15,253,205 // paddw %xmm5,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,103,209 // packuswb %xmm1,%xmm2
- .byte 102,15,252,85,168 // paddb -0x58(%ebp),%xmm2
- .byte 102,15,111,77,184 // movdqa -0x48(%ebp),%xmm1
- .byte 102,15,213,193 // pmullw %xmm1,%xmm0
- .byte 102,15,213,222 // pmullw %xmm6,%xmm3
- .byte 102,15,253,222 // paddw %xmm6,%xmm3
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,103,216 // packuswb %xmm0,%xmm3
- .byte 102,15,252,93,200 // paddb -0x38(%ebp),%xmm3
- .byte 102,15,111,69,152 // movdqa -0x68(%ebp),%xmm0
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,15,253,240 // paddw %xmm0,%xmm6
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,111,77,136 // movdqa -0x78(%ebp),%xmm1
- .byte 102,15,213,193 // pmullw %xmm1,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,133,104,255,255,255 // movdqa -0x98(%ebp),%xmm0
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,111,133,120,255,255,255 // movdqa -0x88(%ebp),%xmm0
- .byte 102,15,213,232 // pmullw %xmm0,%xmm5
- .byte 102,15,253,232 // paddw %xmm0,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,229 // packuswb %xmm5,%xmm4
- .byte 102,15,252,212 // paddb %xmm4,%xmm2
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,241 // packuswb %xmm1,%xmm6
- .byte 102,15,252,222 // paddb %xmm6,%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 129,196,168,0,0,0 // add $0xa8,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_screen_sse2_8bit
-.globl _sk_screen_sse2_8bit
-FUNCTION(_sk_screen_sse2_8bit)
-_sk_screen_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,127,77,168 // movdqa %xmm1,-0x58(%ebp)
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,118,255 // pcmpeqd %xmm7,%xmm7
- .byte 102,15,239,207 // pxor %xmm7,%xmm1
- .byte 102,15,239,248 // pxor %xmm0,%xmm7
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 102,15,104,248 // punpckhbw %xmm0,%xmm7
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,104,200 // punpckhbw %xmm0,%xmm1
- .byte 102,15,127,77,216 // movdqa %xmm1,-0x28(%ebp)
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 102,15,104,208 // punpckhbw %xmm0,%xmm2
- .byte 102,15,127,117,232 // movdqa %xmm6,-0x18(%ebp)
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,104,198 // punpckhbw %xmm6,%xmm0
- .byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,253,235 // paddw %xmm3,%xmm5
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,15,253,225 // paddw %xmm1,%xmm4
- .byte 102,15,111,77,216 // movdqa -0x28(%ebp),%xmm1
- .byte 102,15,213,193 // pmullw %xmm1,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,224 // packuswb %xmm0,%xmm4
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,234 // packuswb %xmm2,%xmm5
- .byte 102,15,111,69,184 // movdqa -0x48(%ebp),%xmm0
- .byte 102,15,252,197 // paddb %xmm5,%xmm0
- .byte 102,15,252,101,168 // paddb -0x58(%ebp),%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xor__sse2_8bit
-.globl _sk_xor__sse2_8bit
-FUNCTION(_sk_xor__sse2_8bit)
-_sk_xor__sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,127,117,232 // movdqa %xmm6,-0x18(%ebp)
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 242,15,112,194,231 // pshuflw $0xe7,%xmm2,%xmm0
- .byte 243,15,112,208,231 // pshufhw $0xe7,%xmm0,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2
- .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2
- .byte 243,15,112,226,95 // pshufhw $0x5f,%xmm2,%xmm4
- .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
- .byte 102,15,239,225 // pxor %xmm1,%xmm4
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,111,213 // movdqa %xmm5,%xmm2
- .byte 102,15,96,211 // punpcklbw %xmm3,%xmm2
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,96,195 // punpcklbw %xmm3,%xmm0
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,253,194 // paddw %xmm2,%xmm0
- .byte 102,15,111,213 // movdqa %xmm5,%xmm2
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,104,227 // punpckhbw %xmm3,%xmm4
- .byte 102,15,213,226 // pmullw %xmm2,%xmm4
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 242,15,112,214,231 // pshuflw $0xe7,%xmm6,%xmm2
- .byte 243,15,112,210,231 // pshufhw $0xe7,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2
- .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2
- .byte 243,15,112,210,95 // pshufhw $0x5f,%xmm2,%xmm2
- .byte 102,15,239,209 // pxor %xmm1,%xmm2
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
- .byte 102,15,96,203 // punpcklbw %xmm3,%xmm1
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,96,243 // punpcklbw %xmm3,%xmm6
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,15,253,241 // paddw %xmm1,%xmm6
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
- .byte 102,15,104,203 // punpckhbw %xmm3,%xmm1
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,15,253,209 // paddw %xmm1,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,242 // packuswb %xmm2,%xmm6
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,196 // packuswb %xmm4,%xmm0
- .byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
- .byte 242,15,112,197,231 // pshuflw $0xe7,%xmm5,%xmm0
- .byte 242,15,112,207,231 // pshuflw $0xe7,%xmm7,%xmm1
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,224,95 // pshufhw $0x5f,%xmm0,%xmm4
- .byte 243,15,112,193,231 // pshufhw $0xe7,%xmm1,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,208,95 // pshufhw $0x5f,%xmm0,%xmm2
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,239,208 // pxor %xmm0,%xmm2
- .byte 102,15,239,224 // pxor %xmm0,%xmm4
- .byte 102,15,111,69,216 // movdqa -0x28(%ebp),%xmm0
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,96,249 // punpcklbw %xmm1,%xmm7
- .byte 102,15,104,193 // punpckhbw %xmm1,%xmm0
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,69,232 // movdqa -0x18(%ebp),%xmm0
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,96,233 // punpcklbw %xmm1,%xmm5
- .byte 102,15,104,193 // punpckhbw %xmm1,%xmm0
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
- .byte 102,15,104,225 // punpckhbw %xmm1,%xmm4
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,96,203 // punpcklbw %xmm3,%xmm1
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,111,93,200 // movdqa -0x38(%ebp),%xmm3
- .byte 102,15,213,227 // pmullw %xmm3,%xmm4
- .byte 102,15,253,227 // paddw %xmm3,%xmm4
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,253,205 // paddw %xmm5,%xmm1
- .byte 102,15,111,93,184 // movdqa -0x48(%ebp),%xmm3
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,15,253,211 // paddw %xmm3,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,103,202 // packuswb %xmm2,%xmm1
- .byte 102,15,252,206 // paddb %xmm6,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,196 // packuswb %xmm4,%xmm0
- .byte 102,15,252,69,168 // paddb -0x58(%ebp),%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_plus__sse2_8bit
-.globl _sk_plus__sse2_8bit
-FUNCTION(_sk_plus__sse2_8bit)
-_sk_plus__sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 102,15,220,194 // paddusb %xmm2,%xmm0
- .byte 102,15,220,203 // paddusb %xmm3,%xmm1
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_darken_sse2_8bit
-.globl _sk_darken_sse2_8bit
-FUNCTION(_sk_darken_sse2_8bit)
-_sk_darken_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,120 // sub $0x78,%esp
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,127,93,136 // movdqa %xmm3,-0x78(%ebp)
- .byte 242,15,112,202,231 // pshuflw $0xe7,%xmm2,%xmm1
- .byte 243,15,112,209,231 // pshufhw $0xe7,%xmm1,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2
- .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2
- .byte 243,15,112,250,95 // pshufhw $0x5f,%xmm2,%xmm7
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,96,209 // punpcklbw %xmm1,%xmm2
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,96,241 // punpcklbw %xmm1,%xmm6
- .byte 102,15,213,242 // pmullw %xmm2,%xmm6
- .byte 102,15,253,242 // paddw %xmm2,%xmm6
- .byte 102,15,127,101,152 // movdqa %xmm4,-0x68(%ebp)
- .byte 102,15,104,193 // punpckhbw %xmm1,%xmm0
- .byte 102,15,104,249 // punpckhbw %xmm1,%xmm7
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 242,15,112,197,231 // pshuflw $0xe7,%xmm5,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,192,95 // pshufhw $0x5f,%xmm0,%xmm0
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,96,209 // punpcklbw %xmm1,%xmm2
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,96,233 // punpcklbw %xmm1,%xmm5
- .byte 102,15,213,234 // pmullw %xmm2,%xmm5
- .byte 102,15,253,234 // paddw %xmm2,%xmm5
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,104,209 // punpckhbw %xmm1,%xmm2
- .byte 102,15,104,193 // punpckhbw %xmm1,%xmm0
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,253,194 // paddw %xmm2,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,232 // packuswb %xmm0,%xmm5
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,247 // packuswb %xmm7,%xmm6
- .byte 242,15,112,195,231 // pshuflw $0xe7,%xmm3,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,208,95 // pshufhw $0x5f,%xmm0,%xmm2
- .byte 242,15,112,196,231 // pshuflw $0xe7,%xmm4,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,200,95 // pshufhw $0x5f,%xmm0,%xmm1
- .byte 102,15,111,101,216 // movdqa -0x28(%ebp),%xmm4
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,96,223 // punpcklbw %xmm7,%xmm3
- .byte 102,15,127,93,200 // movdqa %xmm3,-0x38(%ebp)
- .byte 102,15,104,231 // punpckhbw %xmm7,%xmm4
- .byte 102,15,111,93,232 // movdqa -0x18(%ebp),%xmm3
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,96,199 // punpcklbw %xmm7,%xmm0
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,104,223 // punpckhbw %xmm7,%xmm3
- .byte 102,15,127,93,168 // movdqa %xmm3,-0x58(%ebp)
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,96,251 // punpcklbw %xmm3,%xmm7
- .byte 102,15,104,203 // punpckhbw %xmm3,%xmm1
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,96,195 // punpcklbw %xmm3,%xmm0
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,111,93,200 // movdqa -0x38(%ebp),%xmm3
- .byte 102,15,213,251 // pmullw %xmm3,%xmm7
- .byte 102,15,253,251 // paddw %xmm3,%xmm7
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,15,111,93,184 // movdqa -0x48(%ebp),%xmm3
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,253,195 // paddw %xmm3,%xmm0
- .byte 102,15,111,93,168 // movdqa -0x58(%ebp),%xmm3
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,15,253,211 // paddw %xmm3,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,194 // packuswb %xmm2,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,249 // packuswb %xmm1,%xmm7
- .byte 102,15,222,232 // pmaxub %xmm0,%xmm5
- .byte 102,15,111,77,136 // movdqa -0x78(%ebp),%xmm1
- .byte 102,15,252,77,232 // paddb -0x18(%ebp),%xmm1
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,248,229 // psubb %xmm5,%xmm4
- .byte 102,15,222,247 // pmaxub %xmm7,%xmm6
- .byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
- .byte 102,15,111,85,216 // movdqa -0x28(%ebp),%xmm2
- .byte 102,15,252,218 // paddb %xmm2,%xmm3
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,248,238 // psubb %xmm6,%xmm5
- .byte 232,0,0,0,0 // call bfb7 <_sk_darken_sse2_8bit+0x1df>
- .byte 88 // pop %eax
- .byte 102,15,248,200 // psubb %xmm0,%xmm1
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,248,223 // psubb %xmm7,%xmm3
- .byte 102,15,111,128,217,72,0,0 // movdqa 0x48d9(%eax),%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,223,203 // pandn %xmm3,%xmm1
- .byte 102,15,219,232 // pand %xmm0,%xmm5
- .byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 102,15,223,198 // pandn %xmm6,%xmm0
- .byte 102,15,235,224 // por %xmm0,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 129,196,136,0,0,0 // add $0x88,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_lighten_sse2_8bit
-.globl _sk_lighten_sse2_8bit
-FUNCTION(_sk_lighten_sse2_8bit)
-_sk_lighten_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,120 // sub $0x78,%esp
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,127,93,136 // movdqa %xmm3,-0x78(%ebp)
- .byte 242,15,112,202,231 // pshuflw $0xe7,%xmm2,%xmm1
- .byte 243,15,112,209,231 // pshufhw $0xe7,%xmm1,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,96,210 // punpcklbw %xmm2,%xmm2
- .byte 242,15,112,210,95 // pshuflw $0x5f,%xmm2,%xmm2
- .byte 243,15,112,250,95 // pshufhw $0x5f,%xmm2,%xmm7
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,96,209 // punpcklbw %xmm1,%xmm2
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,96,241 // punpcklbw %xmm1,%xmm6
- .byte 102,15,213,242 // pmullw %xmm2,%xmm6
- .byte 102,15,253,242 // paddw %xmm2,%xmm6
- .byte 102,15,127,101,152 // movdqa %xmm4,-0x68(%ebp)
- .byte 102,15,104,193 // punpckhbw %xmm1,%xmm0
- .byte 102,15,104,249 // punpckhbw %xmm1,%xmm7
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 242,15,112,197,231 // pshuflw $0xe7,%xmm5,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,192,95 // pshufhw $0x5f,%xmm0,%xmm0
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,96,209 // punpcklbw %xmm1,%xmm2
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,96,233 // punpcklbw %xmm1,%xmm5
- .byte 102,15,213,234 // pmullw %xmm2,%xmm5
- .byte 102,15,253,234 // paddw %xmm2,%xmm5
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,104,209 // punpckhbw %xmm1,%xmm2
- .byte 102,15,104,193 // punpckhbw %xmm1,%xmm0
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,253,194 // paddw %xmm2,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,232 // packuswb %xmm0,%xmm5
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,247 // packuswb %xmm7,%xmm6
- .byte 242,15,112,195,231 // pshuflw $0xe7,%xmm3,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,208,95 // pshufhw $0x5f,%xmm0,%xmm2
- .byte 242,15,112,196,231 // pshuflw $0xe7,%xmm4,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,200,95 // pshufhw $0x5f,%xmm0,%xmm1
- .byte 102,15,111,101,216 // movdqa -0x28(%ebp),%xmm4
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,96,223 // punpcklbw %xmm7,%xmm3
- .byte 102,15,127,93,200 // movdqa %xmm3,-0x38(%ebp)
- .byte 102,15,104,231 // punpckhbw %xmm7,%xmm4
- .byte 102,15,111,93,232 // movdqa -0x18(%ebp),%xmm3
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,96,199 // punpcklbw %xmm7,%xmm0
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,104,223 // punpckhbw %xmm7,%xmm3
- .byte 102,15,127,93,168 // movdqa %xmm3,-0x58(%ebp)
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,96,251 // punpcklbw %xmm3,%xmm7
- .byte 102,15,104,203 // punpckhbw %xmm3,%xmm1
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,96,195 // punpcklbw %xmm3,%xmm0
- .byte 102,15,104,211 // punpckhbw %xmm3,%xmm2
- .byte 102,15,111,93,200 // movdqa -0x38(%ebp),%xmm3
- .byte 102,15,213,251 // pmullw %xmm3,%xmm7
- .byte 102,15,253,251 // paddw %xmm3,%xmm7
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,15,111,93,184 // movdqa -0x48(%ebp),%xmm3
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,253,195 // paddw %xmm3,%xmm0
- .byte 102,15,111,93,168 // movdqa -0x58(%ebp),%xmm3
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,15,253,211 // paddw %xmm3,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,194 // packuswb %xmm2,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,249 // packuswb %xmm1,%xmm7
- .byte 102,15,218,232 // pminub %xmm0,%xmm5
- .byte 102,15,111,77,136 // movdqa -0x78(%ebp),%xmm1
- .byte 102,15,252,77,232 // paddb -0x18(%ebp),%xmm1
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,248,229 // psubb %xmm5,%xmm4
- .byte 102,15,218,247 // pminub %xmm7,%xmm6
- .byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
- .byte 102,15,111,85,216 // movdqa -0x28(%ebp),%xmm2
- .byte 102,15,252,218 // paddb %xmm2,%xmm3
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,248,238 // psubb %xmm6,%xmm5
- .byte 232,0,0,0,0 // call c1ed <_sk_lighten_sse2_8bit+0x1df>
- .byte 88 // pop %eax
- .byte 102,15,248,200 // psubb %xmm0,%xmm1
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,248,223 // psubb %xmm7,%xmm3
- .byte 102,15,111,128,163,70,0,0 // movdqa 0x46a3(%eax),%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,223,203 // pandn %xmm3,%xmm1
- .byte 102,15,219,232 // pand %xmm0,%xmm5
- .byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 102,15,223,198 // pandn %xmm6,%xmm0
- .byte 102,15,235,224 // por %xmm0,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 129,196,136,0,0,0 // add $0x88,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_exclusion_sse2_8bit
-.globl _sk_exclusion_sse2_8bit
-FUNCTION(_sk_exclusion_sse2_8bit)
-_sk_exclusion_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,96,199 // punpcklbw %xmm7,%xmm0
- .byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,104,199 // punpckhbw %xmm7,%xmm0
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,96,199 // punpcklbw %xmm7,%xmm0
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,104,199 // punpckhbw %xmm7,%xmm0
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
- .byte 102,15,96,231 // punpcklbw %xmm7,%xmm4
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,104,247 // punpckhbw %xmm7,%xmm6
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,96,239 // punpcklbw %xmm7,%xmm5
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,104,199 // punpckhbw %xmm7,%xmm0
- .byte 102,15,111,125,232 // movdqa -0x18(%ebp),%xmm7
- .byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,15,253,231 // paddw %xmm7,%xmm4
- .byte 102,15,111,125,200 // movdqa -0x38(%ebp),%xmm7
- .byte 102,15,213,247 // pmullw %xmm7,%xmm6
- .byte 102,15,253,247 // paddw %xmm7,%xmm6
- .byte 102,15,111,125,216 // movdqa -0x28(%ebp),%xmm7
- .byte 102,15,213,239 // pmullw %xmm7,%xmm5
- .byte 102,15,253,239 // paddw %xmm7,%xmm5
- .byte 102,15,111,125,184 // movdqa -0x48(%ebp),%xmm7
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,103,232 // packuswb %xmm0,%xmm5
- .byte 232,0,0,0,0 // call c2fa <_sk_exclusion_sse2_8bit+0xb6>
- .byte 88 // pop %eax
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,103,230 // packuswb %xmm6,%xmm4
- .byte 102,15,111,128,150,69,0,0 // movdqa 0x4596(%eax),%xmm0
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,252,222 // paddb %xmm6,%xmm3
- .byte 102,15,248,221 // psubb %xmm5,%xmm3
- .byte 102,15,219,232 // pand %xmm0,%xmm5
- .byte 102,15,248,221 // psubb %xmm5,%xmm3
- .byte 102,15,219,196 // pand %xmm4,%xmm0
- .byte 102,15,111,109,168 // movdqa -0x58(%ebp),%xmm5
- .byte 102,15,252,213 // paddb %xmm5,%xmm2
- .byte 102,15,248,212 // psubb %xmm4,%xmm2
- .byte 102,15,248,208 // psubb %xmm0,%xmm2
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,111,213 // movdqa %xmm5,%xmm2
- .byte 102,15,111,222 // movdqa %xmm6,%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_difference_sse2_8bit
-.globl _sk_difference_sse2_8bit
-FUNCTION(_sk_difference_sse2_8bit)
-_sk_difference_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,120 // sub $0x78,%esp
- .byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 242,15,112,202,231 // pshuflw $0xe7,%xmm2,%xmm1
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,225,95 // pshufhw $0x5f,%xmm1,%xmm4
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,96,205 // punpcklbw %xmm5,%xmm1
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,96,253 // punpcklbw %xmm5,%xmm7
- .byte 102,15,213,249 // pmullw %xmm1,%xmm7
- .byte 102,15,253,249 // paddw %xmm1,%xmm7
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,104,205 // punpckhbw %xmm5,%xmm1
- .byte 102,15,104,229 // punpckhbw %xmm5,%xmm4
- .byte 102,15,213,225 // pmullw %xmm1,%xmm4
- .byte 102,15,253,225 // paddw %xmm1,%xmm4
- .byte 242,15,112,203,231 // pshuflw $0xe7,%xmm3,%xmm1
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,201,95 // pshufhw $0x5f,%xmm1,%xmm1
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,96,213 // punpcklbw %xmm5,%xmm2
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,96,245 // punpcklbw %xmm5,%xmm6
- .byte 102,15,213,242 // pmullw %xmm2,%xmm6
- .byte 102,15,253,242 // paddw %xmm2,%xmm6
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,127,69,136 // movdqa %xmm0,-0x78(%ebp)
- .byte 102,15,104,213 // punpckhbw %xmm5,%xmm2
- .byte 102,15,104,205 // punpckhbw %xmm5,%xmm1
- .byte 102,15,213,202 // pmullw %xmm2,%xmm1
- .byte 102,15,253,202 // paddw %xmm2,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,103,241 // packuswb %xmm1,%xmm6
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,252 // packuswb %xmm4,%xmm7
- .byte 102,15,127,125,152 // movdqa %xmm7,-0x68(%ebp)
- .byte 242,15,112,192,231 // pshuflw $0xe7,%xmm0,%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,200,95 // pshufhw $0x5f,%xmm0,%xmm1
- .byte 242,15,112,69,200,231 // pshuflw $0xe7,-0x38(%ebp),%xmm0
- .byte 243,15,112,192,231 // pshufhw $0xe7,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,112,192,95 // pshuflw $0x5f,%xmm0,%xmm0
- .byte 243,15,112,208,95 // pshufhw $0x5f,%xmm0,%xmm2
- .byte 102,15,111,101,216 // movdqa -0x28(%ebp),%xmm4
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,96,223 // punpcklbw %xmm7,%xmm3
- .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
- .byte 102,15,104,231 // punpckhbw %xmm7,%xmm4
- .byte 102,15,111,69,232 // movdqa -0x18(%ebp),%xmm0
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,96,239 // punpcklbw %xmm7,%xmm5
- .byte 102,15,104,199 // punpckhbw %xmm7,%xmm0
- .byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 102,15,104,208 // punpckhbw %xmm0,%xmm2
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,96,195 // punpcklbw %xmm3,%xmm0
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,104,203 // punpckhbw %xmm3,%xmm1
- .byte 102,15,111,93,184 // movdqa -0x48(%ebp),%xmm3
- .byte 102,15,213,251 // pmullw %xmm3,%xmm7
- .byte 102,15,253,251 // paddw %xmm3,%xmm7
- .byte 102,15,213,212 // pmullw %xmm4,%xmm2
- .byte 102,15,253,212 // paddw %xmm4,%xmm2
- .byte 102,15,213,197 // pmullw %xmm5,%xmm0
- .byte 102,15,253,197 // paddw %xmm5,%xmm0
- .byte 102,15,111,93,168 // movdqa -0x58(%ebp),%xmm3
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,103,193 // packuswb %xmm1,%xmm0
- .byte 102,15,218,198 // pminub %xmm6,%xmm0
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,103,250 // packuswb %xmm2,%xmm7
- .byte 232,0,0,0,0 // call c518 <_sk_difference_sse2_8bit+0x1b7>
- .byte 88 // pop %eax
- .byte 102,15,218,125,152 // pminub -0x68(%ebp),%xmm7
- .byte 102,15,111,160,120,67,0,0 // movdqa 0x4378(%eax),%xmm4
- .byte 102,15,111,77,136 // movdqa -0x78(%ebp),%xmm1
- .byte 102,15,111,93,232 // movdqa -0x18(%ebp),%xmm3
- .byte 102,15,252,203 // paddb %xmm3,%xmm1
- .byte 102,15,248,200 // psubb %xmm0,%xmm1
- .byte 102,15,219,196 // pand %xmm4,%xmm0
- .byte 102,15,248,200 // psubb %xmm0,%xmm1
- .byte 102,15,219,231 // pand %xmm7,%xmm4
- .byte 102,15,111,69,200 // movdqa -0x38(%ebp),%xmm0
- .byte 102,15,111,85,216 // movdqa -0x28(%ebp),%xmm2
- .byte 102,15,252,194 // paddb %xmm2,%xmm0
- .byte 102,15,248,199 // psubb %xmm7,%xmm0
- .byte 102,15,248,196 // psubb %xmm4,%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 129,196,136,0,0,0 // add $0x88,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_hardlight_sse2_8bit
-.globl _sk_hardlight_sse2_8bit
-FUNCTION(_sk_hardlight_sse2_8bit)
-_sk_hardlight_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 129,236,120,1,0,0 // sub $0x178,%esp
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,96,230 // punpcklbw %xmm6,%xmm4
- .byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,96,230 // punpcklbw %xmm6,%xmm4
- .byte 102,15,127,165,40,255,255,255 // movdqa %xmm4,-0xd8(%ebp)
- .byte 242,15,112,224,231 // pshuflw $0xe7,%xmm0,%xmm4
- .byte 102,15,104,198 // punpckhbw %xmm6,%xmm0
- .byte 102,15,127,133,248,254,255,255 // movdqa %xmm0,-0x108(%ebp)
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,196,95 // pshufhw $0x5f,%xmm4,%xmm0
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 102,15,104,206 // punpckhbw %xmm6,%xmm1
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 243,15,112,204,231 // pshufhw $0xe7,%xmm4,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,225,95 // pshufhw $0x5f,%xmm1,%xmm4
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,104,206 // punpckhbw %xmm6,%xmm1
- .byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
- .byte 102,15,96,230 // punpcklbw %xmm6,%xmm4
- .byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,104,206 // punpckhbw %xmm6,%xmm1
- .byte 102,15,127,77,184 // movdqa %xmm1,-0x48(%ebp)
- .byte 102,15,96,230 // punpcklbw %xmm6,%xmm4
- .byte 102,15,127,165,88,255,255,255 // movdqa %xmm4,-0xa8(%ebp)
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,96,198 // punpcklbw %xmm6,%xmm0
- .byte 102,15,127,69,136 // movdqa %xmm0,-0x78(%ebp)
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,127,149,136,254,255,255 // movdqa %xmm2,-0x178(%ebp)
- .byte 102,15,104,198 // punpckhbw %xmm6,%xmm0
- .byte 102,15,127,133,24,255,255,255 // movdqa %xmm0,-0xe8(%ebp)
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,96,198 // punpcklbw %xmm6,%xmm0
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,127,157,152,254,255,255 // movdqa %xmm3,-0x168(%ebp)
- .byte 102,15,104,198 // punpckhbw %xmm6,%xmm0
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 242,15,112,202,231 // pshuflw $0xe7,%xmm2,%xmm1
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,209,95 // pshufhw $0x5f,%xmm1,%xmm2
- .byte 242,15,112,203,231 // pshuflw $0xe7,%xmm3,%xmm1
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,201,95 // pshufhw $0x5f,%xmm1,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,104,198 // punpckhbw %xmm6,%xmm0
- .byte 102,15,127,133,72,255,255,255 // movdqa %xmm0,-0xb8(%ebp)
- .byte 102,15,96,206 // punpcklbw %xmm6,%xmm1
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,127,157,104,255,255,255 // movdqa %xmm3,-0x98(%ebp)
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,104,206 // punpckhbw %xmm6,%xmm1
- .byte 102,15,127,141,232,254,255,255 // movdqa %xmm1,-0x118(%ebp)
- .byte 102,15,96,214 // punpcklbw %xmm6,%xmm2
- .byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
- .byte 232,0,0,0,0 // call c6e1 <_sk_hardlight_sse2_8bit+0x16d>
- .byte 88 // pop %eax
- .byte 102,15,111,184,143,65,0,0 // movdqa 0x418f(%eax),%xmm7
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,239,247 // pxor %xmm7,%xmm6
- .byte 102,15,239,207 // pxor %xmm7,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,239,215 // pxor %xmm7,%xmm2
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,239,223 // pxor %xmm7,%xmm3
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,127,133,56,255,255,255 // movdqa %xmm0,-0xc8(%ebp)
- .byte 102,15,213,216 // pmullw %xmm0,%xmm3
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,239,239 // pxor %xmm7,%xmm5
- .byte 102,15,111,69,184 // movdqa -0x48(%ebp),%xmm0
- .byte 102,15,239,199 // pxor %xmm7,%xmm0
- .byte 102,15,111,101,168 // movdqa -0x58(%ebp),%xmm4
- .byte 102,15,239,231 // pxor %xmm7,%xmm4
- .byte 102,15,239,125,152 // pxor -0x68(%ebp),%xmm7
- .byte 102,15,213,125,216 // pmullw -0x28(%ebp),%xmm7
- .byte 102,15,253,251 // paddw %xmm3,%xmm7
- .byte 102,15,127,189,216,254,255,255 // movdqa %xmm7,-0x128(%ebp)
- .byte 102,15,213,149,40,255,255,255 // pmullw -0xd8(%ebp),%xmm2
- .byte 102,15,213,101,200 // pmullw -0x38(%ebp),%xmm4
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 102,15,127,165,168,254,255,255 // movdqa %xmm4,-0x158(%ebp)
- .byte 102,15,111,149,248,254,255,255 // movdqa -0x108(%ebp),%xmm2
- .byte 102,15,213,202 // pmullw %xmm2,%xmm1
- .byte 102,15,111,157,24,255,255,255 // movdqa -0xe8(%ebp),%xmm3
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,127,133,184,254,255,255 // movdqa %xmm0,-0x148(%ebp)
- .byte 102,15,111,141,120,255,255,255 // movdqa -0x88(%ebp),%xmm1
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,15,111,101,136 // movdqa -0x78(%ebp),%xmm4
- .byte 102,15,213,236 // pmullw %xmm4,%xmm5
- .byte 102,15,253,238 // paddw %xmm6,%xmm5
- .byte 102,15,127,173,200,254,255,255 // movdqa %xmm5,-0x138(%ebp)
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,253,237 // paddw %xmm5,%xmm5
- .byte 102,15,111,141,88,255,255,255 // movdqa -0xa8(%ebp),%xmm1
- .byte 102,15,101,233 // pcmpgtw %xmm1,%xmm5
- .byte 102,15,127,173,8,255,255,255 // movdqa %xmm5,-0xf8(%ebp)
- .byte 102,15,111,109,232 // movdqa -0x18(%ebp),%xmm5
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,249,236 // psubw %xmm4,%xmm5
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,127,101,232 // movdqa %xmm4,-0x18(%ebp)
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,15,127,117,136 // movdqa %xmm6,-0x78(%ebp)
- .byte 102,15,249,200 // psubw %xmm0,%xmm1
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,127,141,88,255,255,255 // movdqa %xmm1,-0xa8(%ebp)
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,253,210 // paddw %xmm2,%xmm2
- .byte 102,15,111,77,184 // movdqa -0x48(%ebp),%xmm1
- .byte 102,15,101,209 // pcmpgtw %xmm1,%xmm2
- .byte 102,15,111,165,232,254,255,255 // movdqa -0x118(%ebp),%xmm4
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,249,227 // psubw %xmm3,%xmm4
- .byte 102,15,213,216 // pmullw %xmm0,%xmm3
- .byte 102,15,127,157,120,255,255,255 // movdqa %xmm3,-0x88(%ebp)
- .byte 102,15,213,249 // pmullw %xmm1,%xmm7
- .byte 102,15,249,200 // psubw %xmm0,%xmm1
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,15,127,77,184 // movdqa %xmm1,-0x48(%ebp)
- .byte 102,15,111,133,40,255,255,255 // movdqa -0xd8(%ebp),%xmm0
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,253,237 // paddw %xmm5,%xmm5
- .byte 102,15,111,77,168 // movdqa -0x58(%ebp),%xmm1
- .byte 102,15,101,233 // pcmpgtw %xmm1,%xmm5
- .byte 102,15,111,165,104,255,255,255 // movdqa -0x98(%ebp),%xmm4
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,111,117,200 // movdqa -0x38(%ebp),%xmm6
- .byte 102,15,249,230 // psubw %xmm6,%xmm4
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,15,127,117,200 // movdqa %xmm6,-0x38(%ebp)
- .byte 102,15,213,217 // pmullw %xmm1,%xmm3
- .byte 102,15,127,157,104,255,255,255 // movdqa %xmm3,-0x98(%ebp)
- .byte 102,15,249,200 // psubw %xmm0,%xmm1
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,15,127,77,168 // movdqa %xmm1,-0x58(%ebp)
- .byte 102,15,111,165,56,255,255,255 // movdqa -0xc8(%ebp),%xmm4
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,69,152 // movdqa -0x68(%ebp),%xmm0
- .byte 102,15,101,224 // pcmpgtw %xmm0,%xmm4
- .byte 102,15,111,141,72,255,255,255 // movdqa -0xb8(%ebp),%xmm1
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,249,77,216 // psubw -0x28(%ebp),%xmm1
- .byte 102,15,127,141,72,255,255,255 // movdqa %xmm1,-0xb8(%ebp)
- .byte 102,15,111,93,216 // movdqa -0x28(%ebp),%xmm3
- .byte 102,15,111,141,56,255,255,255 // movdqa -0xc8(%ebp),%xmm1
- .byte 102,15,213,217 // pmullw %xmm1,%xmm3
- .byte 102,15,127,93,216 // movdqa %xmm3,-0x28(%ebp)
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,15,213,133,72,255,255,255 // pmullw -0xb8(%ebp),%xmm0
- .byte 102,15,127,69,152 // movdqa %xmm0,-0x68(%ebp)
- .byte 102,15,111,157,88,255,255,255 // movdqa -0xa8(%ebp),%xmm3
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,15,111,77,136 // movdqa -0x78(%ebp),%xmm1
- .byte 102,15,249,203 // psubw %xmm3,%xmm1
- .byte 102,15,111,93,184 // movdqa -0x48(%ebp),%xmm3
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,15,249,251 // psubw %xmm3,%xmm7
- .byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,157,104,255,255,255 // movdqa -0x98(%ebp),%xmm3
- .byte 102,15,249,216 // psubw %xmm0,%xmm3
- .byte 102,15,111,69,152 // movdqa -0x68(%ebp),%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,249,240 // psubw %xmm0,%xmm6
- .byte 102,15,111,69,232 // movdqa -0x18(%ebp),%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
- .byte 102,15,111,133,8,255,255,255 // movdqa -0xf8(%ebp),%xmm0
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,223,69,232 // pandn -0x18(%ebp),%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,111,141,120,255,255,255 // movdqa -0x88(%ebp),%xmm1
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,15,219,250 // pand %xmm2,%xmm7
- .byte 102,15,223,209 // pandn %xmm1,%xmm2
- .byte 102,15,235,215 // por %xmm7,%xmm2
- .byte 102,15,111,77,200 // movdqa -0x38(%ebp),%xmm1
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,15,219,221 // pand %xmm5,%xmm3
- .byte 102,15,223,233 // pandn %xmm1,%xmm5
- .byte 102,15,235,235 // por %xmm3,%xmm5
- .byte 102,15,111,77,216 // movdqa -0x28(%ebp),%xmm1
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,15,223,225 // pandn %xmm1,%xmm4
- .byte 102,15,235,230 // por %xmm6,%xmm4
- .byte 102,15,111,136,191,65,0,0 // movdqa 0x41bf(%eax),%xmm1
- .byte 102,15,111,157,200,254,255,255 // movdqa -0x138(%ebp),%xmm3
- .byte 102,15,253,217 // paddw %xmm1,%xmm3
- .byte 102,15,253,195 // paddw %xmm3,%xmm0
- .byte 102,15,111,157,184,254,255,255 // movdqa -0x148(%ebp),%xmm3
- .byte 102,15,253,217 // paddw %xmm1,%xmm3
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 102,15,111,149,168,254,255,255 // movdqa -0x158(%ebp),%xmm2
- .byte 102,15,253,209 // paddw %xmm1,%xmm2
- .byte 102,15,253,234 // paddw %xmm2,%xmm5
- .byte 102,15,111,149,216,254,255,255 // movdqa -0x128(%ebp),%xmm2
- .byte 102,15,253,209 // paddw %xmm1,%xmm2
- .byte 102,15,253,212 // paddw %xmm4,%xmm2
- .byte 102,15,111,136,207,65,0,0 // movdqa 0x41cf(%eax),%xmm1
- .byte 102,15,228,209 // pmulhuw %xmm1,%xmm2
- .byte 102,15,113,210,7 // psrlw $0x7,%xmm2
- .byte 102,15,228,233 // pmulhuw %xmm1,%xmm5
- .byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,103,234 // packuswb %xmm2,%xmm5
- .byte 102,15,228,217 // pmulhuw %xmm1,%xmm3
- .byte 102,15,228,193 // pmulhuw %xmm1,%xmm0
- .byte 102,15,113,211,7 // psrlw $0x7,%xmm3
- .byte 102,15,113,208,7 // psrlw $0x7,%xmm0
- .byte 102,15,103,195 // packuswb %xmm3,%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 15,40,149,136,254,255,255 // movaps -0x178(%ebp),%xmm2
- .byte 15,40,157,152,254,255,255 // movaps -0x168(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 129,196,136,1,0,0 // add $0x188,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_overlay_sse2_8bit
-.globl _sk_overlay_sse2_8bit
-FUNCTION(_sk_overlay_sse2_8bit)
-_sk_overlay_sse2_8bit:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 129,236,120,1,0,0 // sub $0x178,%esp
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,96,229 // punpcklbw %xmm5,%xmm4
- .byte 102,15,127,165,104,255,255,255 // movdqa %xmm4,-0x98(%ebp)
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,96,229 // punpcklbw %xmm5,%xmm4
- .byte 102,15,127,101,184 // movdqa %xmm4,-0x48(%ebp)
- .byte 242,15,112,224,231 // pshuflw $0xe7,%xmm0,%xmm4
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,127,133,248,254,255,255 // movdqa %xmm0,-0x108(%ebp)
- .byte 243,15,112,228,231 // pshufhw $0xe7,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,96,228 // punpcklbw %xmm4,%xmm4
- .byte 242,15,112,228,95 // pshuflw $0x5f,%xmm4,%xmm4
- .byte 243,15,112,196,95 // pshufhw $0x5f,%xmm4,%xmm0
- .byte 242,15,112,225,231 // pshuflw $0xe7,%xmm1,%xmm4
- .byte 102,15,104,205 // punpckhbw %xmm5,%xmm1
- .byte 102,15,127,141,72,255,255,255 // movdqa %xmm1,-0xb8(%ebp)
- .byte 243,15,112,204,231 // pshufhw $0xe7,%xmm4,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,225,95 // pshufhw $0x5f,%xmm1,%xmm4
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,104,205 // punpckhbw %xmm5,%xmm1
- .byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
- .byte 102,15,96,229 // punpcklbw %xmm5,%xmm4
- .byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 102,15,96,205 // punpcklbw %xmm5,%xmm1
- .byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,96,197 // punpcklbw %xmm5,%xmm0
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,127,149,136,254,255,255 // movdqa %xmm2,-0x178(%ebp)
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,127,133,24,255,255,255 // movdqa %xmm0,-0xe8(%ebp)
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,96,197 // punpcklbw %xmm5,%xmm0
- .byte 102,15,127,133,40,255,255,255 // movdqa %xmm0,-0xd8(%ebp)
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,127,165,152,254,255,255 // movdqa %xmm4,-0x168(%ebp)
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,127,133,56,255,255,255 // movdqa %xmm0,-0xc8(%ebp)
- .byte 242,15,112,202,231 // pshuflw $0xe7,%xmm2,%xmm1
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,209,95 // pshufhw $0x5f,%xmm1,%xmm2
- .byte 242,15,112,204,231 // pshuflw $0xe7,%xmm4,%xmm1
- .byte 243,15,112,201,231 // pshufhw $0xe7,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,96,201 // punpcklbw %xmm1,%xmm1
- .byte 242,15,112,201,95 // pshuflw $0x5f,%xmm1,%xmm1
- .byte 243,15,112,201,95 // pshufhw $0x5f,%xmm1,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,104,197 // punpckhbw %xmm5,%xmm0
- .byte 102,15,127,133,232,254,255,255 // movdqa %xmm0,-0x118(%ebp)
- .byte 102,15,96,205 // punpcklbw %xmm5,%xmm1
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,127,157,88,255,255,255 // movdqa %xmm3,-0xa8(%ebp)
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,104,205 // punpckhbw %xmm5,%xmm1
- .byte 102,15,127,141,120,255,255,255 // movdqa %xmm1,-0x88(%ebp)
- .byte 102,15,96,213 // punpcklbw %xmm5,%xmm2
- .byte 102,15,127,85,136 // movdqa %xmm2,-0x78(%ebp)
- .byte 232,0,0,0,0 // call cb9c <_sk_overlay_sse2_8bit+0x171>
- .byte 88 // pop %eax
- .byte 102,15,111,176,212,60,0,0 // movdqa 0x3cd4(%eax),%xmm6
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,239,238 // pxor %xmm6,%xmm5
- .byte 102,15,239,206 // pxor %xmm6,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,239,214 // pxor %xmm6,%xmm2
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,239,230 // pxor %xmm6,%xmm4
- .byte 102,15,213,165,72,255,255,255 // pmullw -0xb8(%ebp),%xmm4
- .byte 102,15,111,125,232 // movdqa -0x18(%ebp),%xmm7
- .byte 102,15,239,254 // pxor %xmm6,%xmm7
- .byte 102,15,111,93,216 // movdqa -0x28(%ebp),%xmm3
- .byte 102,15,239,222 // pxor %xmm6,%xmm3
- .byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0
- .byte 102,15,239,198 // pxor %xmm6,%xmm0
- .byte 102,15,239,117,152 // pxor -0x68(%ebp),%xmm6
- .byte 102,15,213,181,56,255,255,255 // pmullw -0xc8(%ebp),%xmm6
- .byte 102,15,253,244 // paddw %xmm4,%xmm6
- .byte 102,15,127,181,168,254,255,255 // movdqa %xmm6,-0x158(%ebp)
- .byte 102,15,213,85,184 // pmullw -0x48(%ebp),%xmm2
- .byte 102,15,111,165,40,255,255,255 // movdqa -0xd8(%ebp),%xmm4
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,253,194 // paddw %xmm2,%xmm0
- .byte 102,15,127,133,184,254,255,255 // movdqa %xmm0,-0x148(%ebp)
- .byte 102,15,111,133,248,254,255,255 // movdqa -0x108(%ebp),%xmm0
- .byte 102,15,213,200 // pmullw %xmm0,%xmm1
- .byte 102,15,111,149,24,255,255,255 // movdqa -0xe8(%ebp),%xmm2
- .byte 102,15,213,218 // pmullw %xmm2,%xmm3
- .byte 102,15,253,217 // paddw %xmm1,%xmm3
- .byte 102,15,127,157,200,254,255,255 // movdqa %xmm3,-0x138(%ebp)
- .byte 102,15,111,141,104,255,255,255 // movdqa -0x98(%ebp),%xmm1
- .byte 102,15,213,233 // pmullw %xmm1,%xmm5
- .byte 102,15,111,93,200 // movdqa -0x38(%ebp),%xmm3
- .byte 102,15,213,251 // pmullw %xmm3,%xmm7
- .byte 102,15,253,253 // paddw %xmm5,%xmm7
- .byte 102,15,127,189,216,254,255,255 // movdqa %xmm7,-0x128(%ebp)
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,253,237 // paddw %xmm5,%xmm5
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,111,109,136 // movdqa -0x78(%ebp),%xmm5
- .byte 102,15,101,245 // pcmpgtw %xmm5,%xmm6
- .byte 102,15,127,181,8,255,255,255 // movdqa %xmm6,-0xf8(%ebp)
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,249,235 // psubw %xmm3,%xmm5
- .byte 102,15,213,217 // pmullw %xmm1,%xmm3
- .byte 102,15,127,93,200 // movdqa %xmm3,-0x38(%ebp)
- .byte 102,15,111,93,232 // movdqa -0x18(%ebp),%xmm3
- .byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,127,117,136 // movdqa %xmm6,-0x78(%ebp)
- .byte 102,15,249,217 // psubw %xmm1,%xmm3
- .byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,253,237 // paddw %xmm5,%xmm5
- .byte 102,15,111,149,120,255,255,255 // movdqa -0x88(%ebp),%xmm2
- .byte 102,15,101,234 // pcmpgtw %xmm2,%xmm5
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,249,209 // psubw %xmm1,%xmm2
- .byte 102,15,213,200 // pmullw %xmm0,%xmm1
- .byte 102,15,127,141,104,255,255,255 // movdqa %xmm1,-0x98(%ebp)
- .byte 102,15,111,77,216 // movdqa -0x28(%ebp),%xmm1
- .byte 102,15,213,241 // pmullw %xmm1,%xmm6
- .byte 102,15,249,200 // psubw %xmm0,%xmm1
- .byte 102,15,213,202 // pmullw %xmm2,%xmm1
- .byte 102,15,127,77,216 // movdqa %xmm1,-0x28(%ebp)
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,15,111,149,88,255,255,255 // movdqa -0xa8(%ebp),%xmm2
- .byte 102,15,101,218 // pcmpgtw %xmm2,%xmm3
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,249,208 // psubw %xmm0,%xmm2
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,111,69,184 // movdqa -0x48(%ebp),%xmm0
- .byte 102,15,213,208 // pmullw %xmm0,%xmm2
- .byte 102,15,127,149,88,255,255,255 // movdqa %xmm2,-0xa8(%ebp)
- .byte 102,15,111,85,168 // movdqa -0x58(%ebp),%xmm2
- .byte 102,15,213,226 // pmullw %xmm2,%xmm4
- .byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
- .byte 102,15,249,208 // psubw %xmm0,%xmm2
- .byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,15,127,85,168 // movdqa %xmm2,-0x58(%ebp)
- .byte 102,15,111,141,56,255,255,255 // movdqa -0xc8(%ebp),%xmm1
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,133,232,254,255,255 // movdqa -0x118(%ebp),%xmm0
- .byte 102,15,101,224 // pcmpgtw %xmm0,%xmm4
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,213,141,72,255,255,255 // pmullw -0xb8(%ebp),%xmm1
- .byte 102,15,127,77,184 // movdqa %xmm1,-0x48(%ebp)
- .byte 102,15,111,69,152 // movdqa -0x68(%ebp),%xmm0
- .byte 102,15,213,208 // pmullw %xmm0,%xmm2
- .byte 102,15,249,133,72,255,255,255 // psubw -0xb8(%ebp),%xmm0
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,127,69,152 // movdqa %xmm0,-0x68(%ebp)
- .byte 102,15,111,77,232 // movdqa -0x18(%ebp),%xmm1
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
- .byte 102,15,111,77,136 // movdqa -0x78(%ebp),%xmm1
- .byte 102,15,249,77,232 // psubw -0x18(%ebp),%xmm1
- .byte 102,15,111,125,216 // movdqa -0x28(%ebp),%xmm7
- .byte 102,15,253,255 // paddw %xmm7,%xmm7
- .byte 102,15,127,125,216 // movdqa %xmm7,-0x28(%ebp)
- .byte 102,15,249,117,216 // psubw -0x28(%ebp),%xmm6
- .byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,189,120,255,255,255 // movdqa -0x88(%ebp),%xmm7
- .byte 102,15,249,248 // psubw %xmm0,%xmm7
- .byte 102,15,111,69,152 // movdqa -0x68(%ebp),%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,249,208 // psubw %xmm0,%xmm2
- .byte 102,15,111,69,200 // movdqa -0x38(%ebp),%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,133,8,255,255,255 // movdqa -0xf8(%ebp),%xmm0
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,223,69,200 // pandn -0x38(%ebp),%xmm0
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,15,111,133,104,255,255,255 // movdqa -0x98(%ebp),%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,223,232 // pandn %xmm0,%xmm5
- .byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 102,15,111,133,88,255,255,255 // movdqa -0xa8(%ebp),%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,219,243 // pand %xmm3,%xmm6
- .byte 102,15,223,216 // pandn %xmm0,%xmm3
- .byte 102,15,235,243 // por %xmm3,%xmm6
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,111,69,184 // movdqa -0x48(%ebp),%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,219,212 // pand %xmm4,%xmm2
- .byte 102,15,223,224 // pandn %xmm0,%xmm4
- .byte 102,15,235,226 // por %xmm2,%xmm4
- .byte 102,15,111,128,4,61,0,0 // movdqa 0x3d04(%eax),%xmm0
- .byte 102,15,111,149,216,254,255,255 // movdqa -0x128(%ebp),%xmm2
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,15,253,209 // paddw %xmm1,%xmm2
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,111,149,200,254,255,255 // movdqa -0x138(%ebp),%xmm2
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,15,253,213 // paddw %xmm5,%xmm2
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,111,149,184,254,255,255 // movdqa -0x148(%ebp),%xmm2
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,111,141,168,254,255,255 // movdqa -0x158(%ebp),%xmm1
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,15,111,128,20,61,0,0 // movdqa 0x3d14(%eax),%xmm0
- .byte 102,15,228,200 // pmulhuw %xmm0,%xmm1
- .byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,228,208 // pmulhuw %xmm0,%xmm2
- .byte 102,15,113,210,7 // psrlw $0x7,%xmm2
- .byte 102,15,103,209 // packuswb %xmm1,%xmm2
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,228,216 // pmulhuw %xmm0,%xmm3
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,228,208 // pmulhuw %xmm0,%xmm2
- .byte 102,15,113,211,7 // psrlw $0x7,%xmm3
- .byte 102,15,113,210,7 // psrlw $0x7,%xmm2
- .byte 102,15,103,211 // packuswb %xmm3,%xmm2
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 15,40,149,136,254,255,255 // movaps -0x178(%ebp),%xmm2
- .byte 15,40,157,152,254,255,255 // movaps -0x168(%ebp),%xmm3
- .byte 255,117,20 // pushl 0x14(%ebp)
- .byte 255,117,16 // pushl 0x10(%ebp)
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 129,196,136,1,0,0 // add $0x188,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 144 // nop
- .byte 144 // nop
- .byte 144 // nop
-
HIDDEN _sk_start_pipeline_sse2_lowp
.globl _sk_start_pipeline_sse2_lowp
FUNCTION(_sk_start_pipeline_sse2_lowp)
@@ -78959,7 +64144,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,236,92 // sub $0x5c,%esp
.byte 139,125,12 // mov 0xc(%ebp),%edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,131,193,0,0,0 // jae cfde <_sk_start_pipeline_sse2_lowp+0xd6>
+ .byte 15,131,193,0,0,0 // jae 93ca <_sk_start_pipeline_sse2_lowp+0xd6>
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,117,24 // mov 0x18(%ebp),%esi
@@ -78973,7 +64158,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 137,223 // mov %ebx,%edi
.byte 137,243 // mov %esi,%ebx
- .byte 119,77 // ja cf90 <_sk_start_pipeline_sse2_lowp+0x88>
+ .byte 119,77 // ja 937c <_sk_start_pipeline_sse2_lowp+0x88>
.byte 139,117,8 // mov 0x8(%ebp),%esi
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
@@ -78995,13 +64180,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,198,16 // add $0x10,%esi
.byte 57,214 // cmp %edx,%esi
.byte 137,198 // mov %eax,%esi
- .byte 118,182 // jbe cf46 <_sk_start_pipeline_sse2_lowp+0x3e>
+ .byte 118,182 // jbe 9332 <_sk_start_pipeline_sse2_lowp+0x3e>
.byte 137,209 // mov %edx,%ecx
.byte 41,193 // sub %eax,%ecx
.byte 137,222 // mov %ebx,%esi
.byte 137,251 // mov %edi,%ebx
.byte 139,125,240 // mov -0x10(%ebp),%edi
- .byte 116,55 // je cfd4 <_sk_start_pipeline_sse2_lowp+0xcc>
+ .byte 116,55 // je 93c0 <_sk_start_pipeline_sse2_lowp+0xcc>
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
.byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
@@ -79019,7 +64204,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 71 // inc %edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,133,86,255,255,255 // jne cf34 <_sk_start_pipeline_sse2_lowp+0x2c>
+ .byte 15,133,86,255,255,255 // jne 9320 <_sk_start_pipeline_sse2_lowp+0x2c>
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -79093,7 +64278,7 @@ _sk_black_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call d093 <_sk_black_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 947f <_sk_black_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -79112,7 +64297,7 @@ _sk_black_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,221,55,0,0 // movaps 0x37dd(%eax),%xmm3
+ .byte 15,40,152,129,55,0,0 // movaps 0x3781(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -79134,7 +64319,7 @@ _sk_white_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call d0fe <_sk_white_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 94ea <_sk_white_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -79153,7 +64338,7 @@ _sk_white_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,128,114,55,0,0 // movaps 0x3772(%eax),%xmm0
+ .byte 15,40,128,22,55,0,0 // movaps 0x3716(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -79174,16 +64359,16 @@ _sk_set_rgb_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d168 <_sk_set_rgb_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9554 <_sk_set_rgb_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,150,220,55,0,0 // movss 0x37dc(%esi),%xmm2
+ .byte 243,15,16,150,64,55,0,0 // movss 0x3740(%esi),%xmm2
.byte 243,15,16,7 // movss (%edi),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,15,16,142,216,55,0,0 // movss 0x37d8(%esi),%xmm1
+ .byte 243,15,16,142,60,55,0,0 // movss 0x373c(%esi),%xmm1
.byte 243,15,88,193 // addss %xmm1,%xmm0
.byte 243,15,44,240 // cvttss2si %xmm0,%esi
.byte 102,15,110,198 // movd %esi,%xmm0
@@ -79232,7 +64417,7 @@ _sk_premul_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d22c <_sk_premul_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9618 <_sk_premul_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -79241,7 +64426,7 @@ _sk_premul_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,186,68,54,0,0 // movdqa 0x3644(%edx),%xmm7
+ .byte 102,15,111,186,232,53,0,0 // movdqa 0x35e8(%edx),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -79375,12 +64560,12 @@ _sk_invert_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d3a6 <_sk_invert_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9792 <_sk_invert_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,111,160,202,52,0,0 // movdqa 0x34ca(%eax),%xmm4
+ .byte 102,15,111,160,110,52,0,0 // movdqa 0x346e(%eax),%xmm4
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,249,232 // psubw %xmm0,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -79462,11 +64647,11 @@ _sk_srcatop_sse2_lowp:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call d49e <_sk_srcatop_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call 988a <_sk_srcatop_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,128,210,51,0,0 // movdqa 0x33d2(%eax),%xmm0
+ .byte 102,15,111,128,118,51,0,0 // movdqa 0x3376(%eax),%xmm0
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
.byte 102,15,253,208 // paddw %xmm0,%xmm2
@@ -79524,12 +64709,12 @@ _sk_dstatop_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d572 <_sk_dstatop_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 995e <_sk_dstatop_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,111,184,254,50,0,0 // movdqa 0x32fe(%eax),%xmm7
+ .byte 102,15,111,184,162,50,0,0 // movdqa 0x32a2(%eax),%xmm7
.byte 102,15,253,247 // paddw %xmm7,%xmm6
.byte 102,15,213,227 // pmullw %xmm3,%xmm4
.byte 102,15,253,231 // paddw %xmm7,%xmm4
@@ -79582,7 +64767,7 @@ _sk_srcin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d633 <_sk_srcin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9a1f <_sk_srcin_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -79591,7 +64776,7 @@ _sk_srcin_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,190,61,50,0,0 // movdqa 0x323d(%esi),%xmm7
+ .byte 102,15,111,190,225,49,0,0 // movdqa 0x31e1(%esi),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -79630,14 +64815,14 @@ _sk_dstin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d6ca <_sk_dstin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9ab6 <_sk_dstin_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,184,166,49,0,0 // movdqa 0x31a6(%eax),%xmm7
+ .byte 102,15,111,184,74,49,0,0 // movdqa 0x314a(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -79681,14 +64866,14 @@ _sk_srcout_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d772 <_sk_srcout_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9b5e <_sk_srcout_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,182,254,48,0,0 // movdqa 0x30fe(%esi),%xmm6
+ .byte 102,15,111,182,162,48,0,0 // movdqa 0x30a2(%esi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -79732,11 +64917,11 @@ _sk_dstout_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call d815 <_sk_dstout_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call 9c01 <_sk_dstout_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,184,91,48,0,0 // movdqa 0x305b(%eax),%xmm7
+ .byte 102,15,111,184,255,47,0,0 // movdqa 0x2fff(%eax),%xmm7
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -79788,9 +64973,9 @@ _sk_srcover_sse2_lowp:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call d8d1 <_sk_srcover_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call 9cbd <_sk_srcover_sse2_lowp+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,136,159,47,0,0 // movdqa 0x2f9f(%eax),%xmm1
+ .byte 102,15,111,136,67,47,0,0 // movdqa 0x2f43(%eax),%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -79849,7 +65034,7 @@ _sk_dstover_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d9a1 <_sk_dstover_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9d8d <_sk_dstover_sse2_lowp+0xd>
.byte 95 // pop %edi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -79857,7 +65042,7 @@ _sk_dstover_sse2_lowp:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,183,207,46,0,0 // movdqa 0x2ecf(%edi),%xmm6
+ .byte 102,15,111,183,115,46,0,0 // movdqa 0x2e73(%edi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -79903,12 +65088,12 @@ _sk_modulate_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call da56 <_sk_modulate_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9e42 <_sk_modulate_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,26,46,0,0 // movdqa 0x2e1a(%eax),%xmm7
+ .byte 102,15,111,184,190,45,0,0 // movdqa 0x2dbe(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -79951,10 +65136,10 @@ _sk_multiply_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call daf2 <_sk_multiply_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9ede <_sk_multiply_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,160,126,45,0,0 // movdqa 0x2d7e(%eax),%xmm4
+ .byte 102,15,111,160,34,45,0,0 // movdqa 0x2d22(%eax),%xmm4
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,253,244 // paddw %xmm4,%xmm6
.byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6
@@ -80024,17 +65209,17 @@ _sk_plus__sse2_lowp:
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call dbf3 <_sk_plus__sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call 9fdf <_sk_plus__sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
- .byte 102,15,111,168,205,44,0,0 // movdqa 0x2ccd(%eax),%xmm5
+ .byte 102,15,111,168,49,44,0,0 // movdqa 0x2c31(%eax),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,217,197 // psubusw %xmm5,%xmm0
.byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0
.byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,176,125,44,0,0 // movdqa 0x2c7d(%eax),%xmm6
+ .byte 102,15,111,176,33,44,0,0 // movdqa 0x2c21(%eax),%xmm6
.byte 102,15,223,198 // pandn %xmm6,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4
@@ -80095,14 +65280,14 @@ _sk_screen_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call dceb <_sk_screen_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a0d7 <_sk_screen_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,176,133,43,0,0 // movdqa 0x2b85(%eax),%xmm6
+ .byte 102,15,111,176,41,43,0,0 // movdqa 0x2b29(%eax),%xmm6
.byte 102,15,253,206 // paddw %xmm6,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -80160,9 +65345,9 @@ _sk_xor__sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call ddcb <_sk_xor__sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call a1b7 <_sk_xor__sse2_lowp+0x12>
.byte 88 // pop %eax
- .byte 102,15,111,176,165,42,0,0 // movdqa 0x2aa5(%eax),%xmm6
+ .byte 102,15,111,176,73,42,0,0 // movdqa 0x2a49(%eax),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -80229,7 +65414,7 @@ _sk_darken_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call dec0 <_sk_darken_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a2ac <_sk_darken_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -80240,7 +65425,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,16,42,0,0 // movdqa 0x2a10(%eax),%xmm7
+ .byte 102,15,111,184,116,41,0,0 // movdqa 0x2974(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -80249,7 +65434,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,223,233 // pandn %xmm1,%xmm5
.byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,111,128,176,41,0,0 // movdqa 0x29b0(%eax),%xmm0
+ .byte 102,15,111,128,84,41,0,0 // movdqa 0x2954(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -80340,7 +65525,7 @@ _sk_lighten_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call e069 <_sk_lighten_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a455 <_sk_lighten_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -80349,7 +65534,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,103,40,0,0 // movdqa 0x2867(%eax),%xmm7
+ .byte 102,15,111,184,203,39,0,0 // movdqa 0x27cb(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -80358,7 +65543,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,7,40,0,0 // movdqa 0x2807(%eax),%xmm0
+ .byte 102,15,111,128,171,39,0,0 // movdqa 0x27ab(%eax),%xmm0
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
@@ -80448,7 +65633,7 @@ _sk_difference_sse2_lowp:
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call e207 <_sk_difference_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a5f3 <_sk_difference_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -80459,7 +65644,7 @@ _sk_difference_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,201,38,0,0 // movdqa 0x26c9(%eax),%xmm7
+ .byte 102,15,111,184,45,38,0,0 // movdqa 0x262d(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -80468,11 +65653,11 @@ _sk_difference_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,105,38,0,0 // movdqa 0x2669(%eax),%xmm0
+ .byte 102,15,111,128,13,38,0,0 // movdqa 0x260d(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,111,128,217,38,0,0 // movdqa 0x26d9(%eax),%xmm0
+ .byte 102,15,111,128,61,38,0,0 // movdqa 0x263d(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,249,213 // psubw %xmm5,%xmm2
@@ -80561,16 +65746,16 @@ _sk_exclusion_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call e3bb <_sk_exclusion_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a7a7 <_sk_exclusion_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,184,181,36,0,0 // movdqa 0x24b5(%eax),%xmm7
+ .byte 102,15,111,184,89,36,0,0 // movdqa 0x2459(%eax),%xmm7
.byte 102,15,253,207 // paddw %xmm7,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,111,176,37,37,0,0 // movdqa 0x2525(%eax),%xmm6
+ .byte 102,15,111,176,137,36,0,0 // movdqa 0x2489(%eax),%xmm6
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
@@ -80631,9 +65816,9 @@ _sk_hardlight_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call e4b5 <_sk_hardlight_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call a8a1 <_sk_hardlight_sse2_lowp+0x1c>
.byte 88 // pop %eax
- .byte 102,15,111,184,187,35,0,0 // movdqa 0x23bb(%eax),%xmm7
+ .byte 102,15,111,184,95,35,0,0 // movdqa 0x235f(%eax),%xmm7
.byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2
@@ -80660,7 +65845,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,15,249,209 // psubw %xmm1,%xmm2
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,128,27,36,0,0 // movdqa 0x241b(%eax),%xmm0
+ .byte 102,15,111,128,127,35,0,0 // movdqa 0x237f(%eax),%xmm0
.byte 102,15,239,216 // pxor %xmm0,%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
@@ -80767,10 +65952,10 @@ _sk_overlay_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call e6d7 <_sk_overlay_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call aac3 <_sk_overlay_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,184,153,33,0,0 // movdqa 0x2199(%eax),%xmm7
+ .byte 102,15,111,184,61,33,0,0 // movdqa 0x213d(%eax),%xmm7
.byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,208 // psubw %xmm0,%xmm2
@@ -80797,7 +65982,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,249,234 // psubw %xmm2,%xmm5
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,144,249,33,0,0 // movdqa 0x21f9(%eax),%xmm2
+ .byte 102,15,111,144,93,33,0,0 // movdqa 0x215d(%eax),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,239,226 // pxor %xmm2,%xmm4
.byte 102,15,239,194 // pxor %xmm2,%xmm0
@@ -80927,10 +66112,10 @@ _sk_load_8888_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e946 <_sk_load_8888_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call ad32 <_sk_load_8888_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja e96c <_sk_load_8888_sse2_lowp+0x56>
+ .byte 119,32 // ja ad58 <_sk_load_8888_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,50,1,0,0 // mov 0x132(%edi,%ecx,4),%ecx
@@ -80939,14 +66124,14 @@ _sk_load_8888_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp e9b5 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,73 // jmp ada1 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp e9b5 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,61 // jmp ada1 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp e9b5 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,43 // jmp ada1 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -80963,7 +66148,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,42,31,0,0 // movdqa 0x1f2a(%edi),%xmm5
+ .byte 102,15,111,175,206,30,0,0 // movdqa 0x1ece(%edi),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -81042,10 +66227,10 @@ _sk_load_8888_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ead1 <_sk_load_8888_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call aebd <_sk_load_8888_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja eaf7 <_sk_load_8888_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja aee3 <_sk_load_8888_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -81054,14 +66239,14 @@ _sk_load_8888_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp eb40 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp af2c <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp eb40 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp af2c <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp eb40 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp af2c <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -81078,7 +66263,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,159,29,0,0 // movdqa 0x1d9f(%edi),%xmm2
+ .byte 102,15,111,151,67,29,0,0 // movdqa 0x1d43(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -81172,19 +66357,19 @@ _sk_store_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call ec9c <_sk_store_8888_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call b088 <_sk_store_8888_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja ecb9 <_sk_store_8888_sse2_lowp+0x91>
+ .byte 119,19 // ja b0a5 <_sk_store_8888_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp ed16 <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,93 // jmp b102 <_sk_store_8888_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp ed16 <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,80 // jmp b102 <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -81192,7 +66377,7 @@ _sk_store_8888_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp ed16 <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,48 // jmp b102 <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -81229,7 +66414,7 @@ _sk_store_8888_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne ed62 <_sk_store_8888_sse2_lowp+0x13a>
+ .byte 117,0 // jne b14e <_sk_store_8888_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -81261,10 +66446,10 @@ _sk_load_bgra_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call eda0 <_sk_load_bgra_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call b18c <_sk_load_bgra_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja edc6 <_sk_load_bgra_sse2_lowp+0x56>
+ .byte 119,32 // ja b1b2 <_sk_load_bgra_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -81273,14 +66458,14 @@ _sk_load_bgra_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp ee0f <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,73 // jmp b1fb <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp ee0f <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,61 // jmp b1fb <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp ee0f <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,43 // jmp b1fb <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -81297,7 +66482,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,208,26,0,0 // movdqa 0x1ad0(%edi),%xmm5
+ .byte 102,15,111,175,116,26,0,0 // movdqa 0x1a74(%edi),%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -81377,10 +66562,10 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ef2d <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call b319 <_sk_load_bgra_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja ef53 <_sk_load_bgra_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja b33f <_sk_load_bgra_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -81389,14 +66574,14 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp ef9c <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp b388 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp ef9c <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp b388 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp ef9c <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp b388 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -81413,7 +66598,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,67,25,0,0 // movdqa 0x1943(%edi),%xmm2
+ .byte 102,15,111,151,231,24,0,0 // movdqa 0x18e7(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -81507,19 +66692,19 @@ _sk_store_bgra_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call f0f8 <_sk_store_bgra_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call b4e4 <_sk_store_bgra_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja f115 <_sk_store_bgra_sse2_lowp+0x91>
+ .byte 119,19 // ja b501 <_sk_store_bgra_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp f172 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,93 // jmp b55e <_sk_store_bgra_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp f172 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,80 // jmp b55e <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -81527,7 +66712,7 @@ _sk_store_bgra_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp f172 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,48 // jmp b55e <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -81564,7 +66749,7 @@ _sk_store_bgra_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne f1be <_sk_store_bgra_sse2_lowp+0x13a>
+ .byte 117,0 // jne b5aa <_sk_store_bgra_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -81595,10 +66780,10 @@ _sk_load_565_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call f1f7 <_sk_load_565_dst_sse2_lowp+0x2b>
+ .byte 232,0,0,0,0 // call b5e3 <_sk_load_565_dst_sse2_lowp+0x2b>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja f219 <_sk_load_565_dst_sse2_lowp+0x4d>
+ .byte 119,28 // ja b605 <_sk_load_565_dst_sse2_lowp+0x4d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
@@ -81606,14 +66791,14 @@ _sk_load_565_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp f254 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,59 // jmp b640 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp f254 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,52 // jmp b640 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp f254 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,30 // jmp b640 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -81621,11 +66806,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,219,183,249,22,0,0 // pand 0x16f9(%edi),%xmm6
+ .byte 102,15,219,183,93,22,0,0 // pand 0x165d(%edi),%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,175,9,23,0,0 // pand 0x1709(%edi),%xmm5
- .byte 102,15,111,191,25,23,0,0 // movdqa 0x1719(%edi),%xmm7
+ .byte 102,15,219,175,109,22,0,0 // pand 0x166d(%edi),%xmm5
+ .byte 102,15,111,191,125,22,0,0 // movdqa 0x167d(%edi),%xmm7
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
@@ -81638,7 +66823,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,215,2 // psrlw $0x2,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,183,121,22,0,0 // movaps 0x1679(%edi),%xmm6
+ .byte 15,40,183,29,22,0,0 // movaps 0x161d(%edi),%xmm6
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 139,125,20 // mov 0x14(%ebp),%edi
.byte 137,124,36,12 // mov %edi,0xc(%esp)
@@ -81683,15 +66868,15 @@ _sk_store_565_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call f31e <_sk_store_565_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call b70a <_sk_store_565_sse2_lowp+0x12>
.byte 95 // pop %edi
.byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,15,219,151,2,22,0,0 // pand 0x1602(%edi),%xmm2
+ .byte 102,15,219,151,102,21,0,0 // pand 0x1566(%edi),%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,219,183,18,22,0,0 // pand 0x1612(%edi),%xmm6
+ .byte 102,15,219,183,118,21,0,0 // pand 0x1576(%edi),%xmm6
.byte 102,15,235,242 // por %xmm2,%xmm6
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,3 // psrlw $0x3,%xmm2
@@ -81710,19 +66895,19 @@ _sk_store_565_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja f396 <_sk_store_565_sse2_lowp+0x8a>
+ .byte 119,22 // ja b782 <_sk_store_565_sse2_lowp+0x8a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
.byte 255,231 // jmp *%edi
.byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp f3d1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,59 // jmp b7bd <_sk_store_565_sse2_lowp+0xc5>
.byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp f3d1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,52 // jmp b7bd <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
.byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
.byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp f3d1 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,35 // jmp b7bd <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
.byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
.byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
@@ -81784,10 +66969,10 @@ _sk_load_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call f466 <_sk_load_a8_sse2_lowp+0x3a>
+ .byte 232,0,0,0,0 // call b852 <_sk_load_a8_sse2_lowp+0x3a>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja f488 <_sk_load_a8_sse2_lowp+0x5c>
+ .byte 119,28 // ja b874 <_sk_load_a8_sse2_lowp+0x5c>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
@@ -81795,10 +66980,10 @@ _sk_load_a8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp f4e2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,90 // jmp b8ce <_sk_load_a8_sse2_lowp+0xb6>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp f4e2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,79 // jmp b8ce <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -81806,7 +66991,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp f4e2 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,47 // jmp b8ce <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -81817,7 +67002,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 102,15,219,159,10,20,0,0 // pand 0x140a(%edi),%xmm3
+ .byte 102,15,219,159,174,19,0,0 // pand 0x13ae(%edi),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
@@ -81872,10 +67057,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call f571 <_sk_load_a8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call b95d <_sk_load_a8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja f593 <_sk_load_a8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja b97f <_sk_load_a8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -81883,10 +67068,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp f5ed <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp b9d9 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp f5ed <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp b9d9 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -81894,7 +67079,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp f5ed <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp b9d9 <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -81905,7 +67090,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,255,18,0,0 // pand 0x12ff(%edi),%xmm4
+ .byte 102,15,219,167,163,18,0,0 // pand 0x12a3(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
.byte 102,15,239,228 // pxor %xmm4,%xmm4
@@ -81962,32 +67147,32 @@ _sk_store_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call f689 <_sk_store_a8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call ba75 <_sk_store_a8_sse2_lowp+0x39>
.byte 91 // pop %ebx
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja f6a9 <_sk_store_a8_sse2_lowp+0x59>
+ .byte 119,26 // ja ba95 <_sk_store_a8_sse2_lowp+0x59>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
.byte 1,217 // add %ebx,%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp f731 <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,111,163,231,17,0,0 // movdqa 0x11e7(%ebx),%xmm4
+ .byte 233,136,0,0,0 // jmp bb1d <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 102,15,111,163,139,17,0,0 // movdqa 0x118b(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp f731 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,109 // jmp bb1d <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
- .byte 102,15,111,163,231,17,0,0 // movdqa 0x11e7(%ebx),%xmm4
+ .byte 102,15,111,163,139,17,0,0 // movdqa 0x118b(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,225 // movd %xmm4,%ecx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp f731 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,70 // jmp bb1d <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -81997,7 +67182,7 @@ _sk_store_a8_sse2_lowp:
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,111,163,231,17,0,0 // movdqa 0x11e7(%ebx),%xmm4
+ .byte 102,15,111,163,139,17,0,0 // movdqa 0x118b(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1)
@@ -82031,7 +67216,7 @@ _sk_store_a8_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 0,125,0 // add %bh,0x0(%ebp)
.byte 0,0 // add %al,(%eax)
- .byte 116,0 // je f77a <_sk_store_a8_sse2_lowp+0x12a>
+ .byte 116,0 // je bb66 <_sk_store_a8_sse2_lowp+0x12a>
.byte 0,0 // add %al,(%eax)
.byte 107,0,0 // imul $0x0,(%eax),%eax
.byte 0,98,0 // add %ah,0x0(%edx)
@@ -82061,10 +67246,10 @@ _sk_load_g8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call f7bd <_sk_load_g8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call bba9 <_sk_load_g8_sse2_lowp+0x39>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja f7df <_sk_load_g8_sse2_lowp+0x5b>
+ .byte 119,28 // ja bbcb <_sk_load_g8_sse2_lowp+0x5b>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,199,0,0,0 // mov 0xc7(%esi,%ecx,4),%ecx
@@ -82072,10 +67257,10 @@ _sk_load_g8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp f839 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,90 // jmp bc25 <_sk_load_g8_sse2_lowp+0xb5>
.byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp f839 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,79 // jmp bc25 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
@@ -82083,7 +67268,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp f839 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,47 // jmp bc25 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
@@ -82094,7 +67279,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 102,15,219,134,179,16,0,0 // pand 0x10b3(%esi),%xmm0
+ .byte 102,15,219,134,87,16,0,0 // pand 0x1057(%esi),%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
@@ -82105,7 +67290,7 @@ _sk_load_g8_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,179,16,0,0 // movaps 0x10b3(%esi),%xmm3
+ .byte 15,40,158,87,16,0,0 // movaps 0x1057(%esi),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -82148,10 +67333,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call f8c9 <_sk_load_g8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call bcb5 <_sk_load_g8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja f8eb <_sk_load_g8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja bcd7 <_sk_load_g8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -82159,10 +67344,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp f945 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp bd31 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp f945 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp bd31 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -82170,7 +67355,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp f945 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp bd31 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -82181,9 +67366,9 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,167,15,0,0 // pand 0xfa7(%edi),%xmm4
+ .byte 102,15,219,167,75,15,0,0 // pand 0xf4b(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,175,167,15,0,0 // movaps 0xfa7(%edi),%xmm5
+ .byte 15,40,175,75,15,0,0 // movaps 0xf4b(%edi),%xmm5
.byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
.byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
.byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
@@ -82223,15 +67408,15 @@ _sk_scale_1_float_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call f9b5 <_sk_scale_1_float_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call bda1 <_sk_scale_1_float_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
.byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,89,166,143,15,0,0 // mulss 0xf8f(%esi),%xmm4
- .byte 243,15,88,166,139,15,0,0 // addss 0xf8b(%esi),%xmm4
+ .byte 243,15,89,166,243,14,0,0 // mulss 0xef3(%esi),%xmm4
+ .byte 243,15,88,166,239,14,0,0 // addss 0xeef(%esi),%xmm4
.byte 243,15,44,252 // cvttss2si %xmm4,%edi
.byte 102,15,110,239 // movd %edi,%xmm5
.byte 139,125,20 // mov 0x14(%ebp),%edi
@@ -82244,7 +67429,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,213,213 // pmullw %xmm5,%xmm2
.byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,111,174,187,14,0,0 // movdqa 0xebb(%esi),%xmm5
+ .byte 102,15,111,174,95,14,0,0 // movdqa 0xe5f(%esi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,15,253,213 // paddw %xmm5,%xmm2
@@ -82292,10 +67477,10 @@ _sk_scale_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call fa97 <_sk_scale_u8_sse2_lowp+0x31>
+ .byte 232,0,0,0,0 // call be83 <_sk_scale_u8_sse2_lowp+0x31>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja fab9 <_sk_scale_u8_sse2_lowp+0x53>
+ .byte 119,28 // ja bea5 <_sk_scale_u8_sse2_lowp+0x53>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,1,1,0,0 // mov 0x101(%edi,%ecx,4),%ecx
@@ -82303,10 +67488,10 @@ _sk_scale_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp fb13 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,90 // jmp beff <_sk_scale_u8_sse2_lowp+0xad>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp fb13 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,79 // jmp beff <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -82314,7 +67499,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp fb13 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,47 // jmp beff <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -82325,9 +67510,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,217,13,0,0 // pand 0xdd9(%edi),%xmm4
+ .byte 102,15,219,167,125,13,0,0 // pand 0xd7d(%edi),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,175,217,13,0,0 // movdqa 0xdd9(%edi),%xmm5
+ .byte 102,15,111,175,125,13,0,0 // movdqa 0xd7d(%edi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
@@ -82386,19 +67571,19 @@ _sk_lerp_1_float_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call fbd1 <_sk_lerp_1_float_sse2_lowp+0x1d>
+ .byte 232,0,0,0,0 // call bfbd <_sk_lerp_1_float_sse2_lowp+0x1d>
.byte 89 // pop %ecx
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
.byte 243,15,16,50 // movss (%edx),%xmm6
- .byte 243,15,89,177,115,13,0,0 // mulss 0xd73(%ecx),%xmm6
- .byte 243,15,88,177,111,13,0,0 // addss 0xd6f(%ecx),%xmm6
+ .byte 243,15,89,177,215,12,0,0 // mulss 0xcd7(%ecx),%xmm6
+ .byte 243,15,88,177,211,12,0,0 // addss 0xcd3(%ecx),%xmm6
.byte 243,15,44,214 // cvttss2si %xmm6,%edx
.byte 102,15,110,242 // movd %edx,%xmm6
.byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
.byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,111,129,159,12,0,0 // movdqa 0xc9f(%ecx),%xmm0
+ .byte 102,15,111,129,67,12,0,0 // movdqa 0xc43(%ecx),%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
@@ -82470,10 +67655,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call fcf7 <_sk_lerp_u8_sse2_lowp+0x2e>
+ .byte 232,0,0,0,0 // call c0e3 <_sk_lerp_u8_sse2_lowp+0x2e>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja fd19 <_sk_lerp_u8_sse2_lowp+0x50>
+ .byte 119,28 // ja c105 <_sk_lerp_u8_sse2_lowp+0x50>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,73,1,0,0 // mov 0x149(%edi,%ecx,4),%ecx
@@ -82481,10 +67666,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp fd73 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,90 // jmp c15f <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp fd73 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,79 // jmp c15f <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -82492,7 +67677,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp fd73 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,47 // jmp c15f <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -82503,8 +67688,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,220 // movsd %xmm4,%xmm3
- .byte 102,15,219,159,121,11,0,0 // pand 0xb79(%edi),%xmm3
- .byte 102,15,111,183,121,11,0,0 // movdqa 0xb79(%edi),%xmm6
+ .byte 102,15,219,159,29,11,0,0 // pand 0xb1d(%edi),%xmm3
+ .byte 102,15,111,183,29,11,0,0 // movdqa 0xb1d(%edi),%xmm6
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,239,230 // pxor %xmm6,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
@@ -82592,11 +67777,11 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call fe9b <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ .byte 232,0,0,0,0 // call c287 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja fec1 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ .byte 119,29 // ja c2ad <_sk_srcover_rgba_8888_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 139,132,145,77,2,0,0 // mov 0x24d(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -82604,14 +67789,14 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp ff0a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,73 // jmp c2f6 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp ff0a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,61 // jmp c2f6 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp ff0a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,43 // jmp c2f6 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -82637,7 +67822,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,243 // packssdw %xmm3,%xmm6
- .byte 102,15,111,153,213,9,0,0 // movdqa 0x9d5(%ecx),%xmm3
+ .byte 102,15,111,153,121,9,0,0 // movdqa 0x979(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -82689,18 +67874,18 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja 1004b <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ .byte 119,16 // ja c437 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
.byte 3,140,145,105,2,0,0 // add 0x269(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp 1008b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,64 // jmp c477 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp 1008b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,51 // jmp c477 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp 1008b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,33 // jmp c477 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -82829,11 +68014,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne 10208 <.literal16+0xe8>
+ .byte 224,64 // loopne c5f8 <.literal16+0xe8>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne 1020c <.literal16+0xec>
+ .byte 224,64 // loopne c5fc <.literal16+0xec>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne 10210 <.literal16+0xf0>
+ .byte 224,64 // loopne c600 <.literal16+0xf0>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -82844,16 +68029,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 10231 <.literal16+0x111>
+ .byte 225,61 // loope c621 <.literal16+0x111>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 10235 <.literal16+0x115>
+ .byte 225,61 // loope c625 <.literal16+0x115>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 10239 <.literal16+0x119>
+ .byte 225,61 // loope c629 <.literal16+0x119>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 1023d <.literal16+0x11d>
+ .byte 225,61 // loope c62d <.literal16+0x11d>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -82863,13 +68048,13 @@ BALIGN16
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 10257 <.literal16+0x137>
+ .byte 127,67 // jg c647 <.literal16+0x137>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 1025b <.literal16+0x13b>
+ .byte 127,67 // jg c64b <.literal16+0x13b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 1025f <.literal16+0x13f>
+ .byte 127,67 // jg c64f <.literal16+0x13f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 10263 <.literal16+0x143>
+ .byte 127,67 // jg c653 <.literal16+0x143>
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%esi)
.byte 145 // xchg %eax,%ecx
@@ -83020,13 +68205,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 10369 <.literal16+0x249>
+ .byte 224,7 // loopne c759 <.literal16+0x249>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 1036d <.literal16+0x24d>
+ .byte 224,7 // loopne c75d <.literal16+0x24d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 10371 <.literal16+0x251>
+ .byte 224,7 // loopne c761 <.literal16+0x251>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 10375 <.literal16+0x255>
+ .byte 224,7 // loopne c765 <.literal16+0x255>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -83075,17 +68260,17 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 103d4 <.literal16+0x2b4>
+ .byte 127,0 // jg c7c4 <.literal16+0x2b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 103d8 <.literal16+0x2b8>
+ .byte 127,0 // jg c7c8 <.literal16+0x2b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 103dc <.literal16+0x2bc>
+ .byte 127,0 // jg c7cc <.literal16+0x2bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 103e0 <.literal16+0x2c0>
- .byte 119,115 // ja 10455 <.literal16+0x335>
+ .byte 127,0 // jg c7d0 <.literal16+0x2c0>
+ .byte 119,115 // ja c845 <.literal16+0x335>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -83096,7 +68281,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 103b9 <.literal16+0x299>
+ .byte 117,191 // jne c7a9 <.literal16+0x299>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -83112,7 +68297,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a443f6 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a3459a>
+ .byte 233,220,63,163,233 // jmp e9a407e6 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a3459e>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,81 // mov %eax,0x513fdce9
.byte 140,242 // mov %?,%edx
@@ -83208,16 +68393,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 10543 <.literal16+0x423>
+ .byte 118,63 // jbe c933 <.literal16+0x423>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 10547 <.literal16+0x427>
+ .byte 118,63 // jbe c937 <.literal16+0x427>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 1054b <.literal16+0x42b>
+ .byte 118,63 // jbe c93b <.literal16+0x42b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 1054f <.literal16+0x42f>
+ .byte 118,63 // jbe c93f <.literal16+0x42f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -83243,13 +68428,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 10586 <.literal16+0x466>
+ .byte 124,66 // jl c976 <.literal16+0x466>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 1058a <.literal16+0x46a>
+ .byte 124,66 // jl c97a <.literal16+0x46a>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 1058e <.literal16+0x46e>
+ .byte 124,66 // jl c97e <.literal16+0x46e>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 10592 <.literal16+0x472>
+ .byte 124,66 // jl c982 <.literal16+0x472>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -83295,25 +68480,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10615 <.literal16+0x4f5>
+ .byte 112,65 // jo ca05 <.literal16+0x4f5>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10619 <.literal16+0x4f9>
+ .byte 112,65 // jo ca09 <.literal16+0x4f9>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 1061d <.literal16+0x4fd>
+ .byte 112,65 // jo ca0d <.literal16+0x4fd>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10621 <.literal16+0x501>
+ .byte 112,65 // jo ca11 <.literal16+0x501>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 255 // (bad)
- .byte 127,0 // jg 105f3 <.literal16+0x4d3>
+ .byte 127,0 // jg c9e3 <.literal16+0x4d3>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 105f7 <.literal16+0x4d7>
+ .byte 127,0 // jg c9e7 <.literal16+0x4d7>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 105fb <.literal16+0x4db>
+ .byte 127,0 // jg c9eb <.literal16+0x4db>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 105ff <.literal16+0x4df>
+ .byte 127,0 // jg c9ef <.literal16+0x4df>
.byte 0,0 // add %al,(%eax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%eax)
@@ -83339,13 +68524,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 10638 <.literal16+0x518>
+ .byte 127,255 // jg ca28 <.literal16+0x518>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 1063c <.literal16+0x51c>
+ .byte 127,255 // jg ca2c <.literal16+0x51c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 10641 <.literal16+0x521>
+ .byte 127,0 // jg ca31 <.literal16+0x521>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
.byte 56,0 // cmp %al,(%eax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
@@ -83359,13 +68544,13 @@ BALIGN16
.byte 0,255 // add %bh,%bh
.byte 255,0 // incl (%eax)
.byte 255 // (bad)
- .byte 127,71 // jg 106ab <.literal16+0x58b>
+ .byte 127,71 // jg ca9b <.literal16+0x58b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 106af <.literal16+0x58f>
+ .byte 127,71 // jg ca9f <.literal16+0x58f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 106b3 <.literal16+0x593>
+ .byte 127,71 // jg caa3 <.literal16+0x593>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 106b7 <.literal16+0x597>
+ .byte 127,71 // jg caa7 <.literal16+0x597>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -83418,7 +68603,7 @@ BALIGN16
.byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 1071c <.literal16+0x5fc>
+ .byte 120,57 // js cb0c <.literal16+0x5fc>
.byte 64 // inc %eax
.byte 18,120,57 // adc 0x39(%eax),%bh
.byte 64 // inc %eax
@@ -83489,13 +68674,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 107ce <.literal16+0x6ae>
+ .byte 114,28 // jb cbbe <.literal16+0x6ae>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 107d2 <.literal16+0x6b2>
+ .byte 62,114,28 // jb,pt cbc2 <.literal16+0x6b2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 107d6 <.literal16+0x6b6>
+ .byte 62,114,28 // jb,pt cbc6 <.literal16+0x6b6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 107da <.literal16+0x6ba>
+ .byte 62,114,28 // jb,pt cbca <.literal16+0x6ba>
.byte 199 // (bad)
.byte 62,85 // ds push %ebp
.byte 85 // push %ebp
@@ -83516,13 +68701,13 @@ BALIGN16
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi)
.byte 99,61,57,142,99,61 // arpl %di,0x3d638e39
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi)
- .byte 127,63 // jg 10833 <.literal16+0x713>
- .byte 114,249 // jb 107ef <.literal16+0x6cf>
- .byte 127,63 // jg 10837 <.literal16+0x717>
- .byte 114,249 // jb 107f3 <.literal16+0x6d3>
- .byte 127,63 // jg 1083b <.literal16+0x71b>
- .byte 114,249 // jb 107f7 <.literal16+0x6d7>
- .byte 127,63 // jg 1083f <.literal16+0x71f>
+ .byte 127,63 // jg cc23 <.literal16+0x713>
+ .byte 114,249 // jb cbdf <.literal16+0x6cf>
+ .byte 127,63 // jg cc27 <.literal16+0x717>
+ .byte 114,249 // jb cbe3 <.literal16+0x6d3>
+ .byte 127,63 // jg cc2b <.literal16+0x71b>
+ .byte 114,249 // jb cbe7 <.literal16+0x6d7>
+ .byte 127,63 // jg cc2f <.literal16+0x71f>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
@@ -83531,93 +68716,16 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%eax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%eax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%eax)
- .byte 0,255 // add %bh,%bh
- .byte 248 // clc
- .byte 0,0 // add %al,(%eax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 252 // cld
- .byte 0,0 // add %al,(%eax)
- .byte 0,252 // add %bh,%ah
- .byte 0,0 // add %al,(%eax)
- .byte 0,252 // add %bh,%ah
- .byte 0,0 // add %al,(%eax)
- .byte 0,252 // add %bh,%ah
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 248 // clc
- .byte 0,0 // add %al,(%eax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,248 // add %bh,%al
- .byte 0,7 // add %al,(%edi)
- .byte 0,7 // add %al,(%edi)
- .byte 0,7 // add %al,(%edi)
- .byte 0,7 // add %al,(%edi)
- .byte 0,7 // add %al,(%edi)
- .byte 0,7 // add %al,(%edi)
- .byte 0,7 // add %al,(%edi)
- .byte 0,7 // add %al,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 12,0 // or $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 12,0 // or $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 12,0 // or $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 12,0 // or $0x0,%al
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,1 // add %al,(%ecx)
- .byte 1,1 // add %eax,(%ecx)
- .byte 0,1 // add %al,(%ecx)
- .byte 1,1 // add %eax,(%ecx)
- .byte 0,1 // add %al,(%ecx)
- .byte 1,1 // add %eax,(%ecx)
- .byte 0,1 // add %al,(%ecx)
- .byte 1,1 // add %eax,(%ecx)
- .byte 0,255 // add %bh,%bh
- .byte 255 // (bad)
.byte 255,0 // incl (%eax)
- .byte 255 // (bad)
- .byte 255 // (bad)
.byte 255,0 // incl (%eax)
- .byte 255 // (bad)
- .byte 255 // (bad)
.byte 255,0 // incl (%eax)
- .byte 255 // (bad)
- .byte 255 // (bad)
.byte 255,0 // incl (%eax)
- .byte 127,0 // jg 108a2 <.literal16+0x782>
- .byte 127,0 // jg 108a4 <.literal16+0x784>
- .byte 127,0 // jg 108a6 <.literal16+0x786>
- .byte 127,0 // jg 108a8 <.literal16+0x788>
- .byte 127,0 // jg 108aa <.literal16+0x78a>
- .byte 127,0 // jg 108ac <.literal16+0x78c>
- .byte 127,0 // jg 108ae <.literal16+0x78e>
- .byte 127,0 // jg 108b0 <.literal16+0x790>
- .byte 129,128,129,128,129,128,129,128,129,128// addl $0x80818081,-0x7f7e7f7f(%eax)
- .byte 129,128,129,128,129,128,254,0,254,0 // addl $0xfe00fe,-0x7f7e7f7f(%eax)
+ .byte 255,0 // incl (%eax)
+ .byte 255,0 // incl (%eax)
+ .byte 255,0 // incl (%eax)
+ .byte 255,0 // incl (%eax)
+ .byte 254,0 // incb (%eax)
+ .byte 254,0 // incb (%eax)
.byte 254,0 // incb (%eax)
.byte 254,0 // incb (%eax)
.byte 254,0 // incb (%eax)
@@ -83667,21 +68775,18 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 10931 <.literal16+0x811>
- .byte 224,255 // loopne 10933 <.literal16+0x813>
- .byte 224,255 // loopne 10935 <.literal16+0x815>
- .byte 224,255 // loopne 10937 <.literal16+0x817>
- .byte 224,255 // loopne 10939 <.literal16+0x819>
- .byte 224,255 // loopne 1093b <.literal16+0x81b>
- .byte 224,255 // loopne 1093d <.literal16+0x81d>
- .byte 224,255 // loopne 1093f <.literal16+0x81f>
+ .byte 224,255 // loopne cc81 <.literal16+0x771>
+ .byte 224,255 // loopne cc83 <.literal16+0x773>
+ .byte 224,255 // loopne cc85 <.literal16+0x775>
+ .byte 224,255 // loopne cc87 <.literal16+0x777>
+ .byte 224,255 // loopne cc89 <.literal16+0x779>
+ .byte 224,255 // loopne cc8b <.literal16+0x77b>
+ .byte 224,255 // loopne cc8d <.literal16+0x77d>
+ .byte 224,255 // loopne cc8f <.literal16+0x77f>
BALIGN4
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 1098b <_sk_srcover_rgba_8888_sse2_lowp+0xb2f>
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
- .byte 79 // dec %edi
+ .byte 127,67 // jg ccdb <_sk_srcover_rgba_8888_sse2_lowp+0xa93>
#endif
diff --git a/src/jumper/SkJumper_generated_win.S b/src/jumper/SkJumper_generated_win.S
index ac0415f788..e7f8e1f63c 100644
--- a/src/jumper/SkJumper_generated_win.S
+++ b/src/jumper/SkJumper_generated_win.S
@@ -99,14 +99,14 @@ _sk_seed_shader_hsw LABEL PROC
DB 197,249,110,194 ; vmovd %edx,%xmm0
DB 196,226,125,88,192 ; vpbroadcastd %xmm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 197,252,88,5,139,53,3,0 ; vaddps 0x3358b(%rip),%ymm0,%ymm0 # 336e0 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
+ DB 197,252,88,5,43,156,2,0 ; vaddps 0x29c2b(%rip),%ymm0,%ymm0 # 29d80 <_sk_srcover_rgba_8888_sse2_lowp+0x2c8>
DB 197,249,110,201 ; vmovd %ecx,%xmm1
DB 196,226,125,88,201 ; vpbroadcastd %xmm1,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,57,63,3,0 ; vbroadcastss 0x33f39(%rip),%ymm2 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,226,125,24,21,121,161,2,0 ; vbroadcastss 0x2a179(%rip),%ymm2 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,244,88,202 ; vaddps %ymm2,%ymm1,%ymm1
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,21,46,63,3,0 ; vbroadcastss 0x33f2e(%rip),%ymm2 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,21,110,161,2,0 ; vbroadcastss 0x2a16e(%rip),%ymm2 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
@@ -119,17 +119,17 @@ _sk_dither_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,121,110,194 ; vmovd %edx,%xmm8
DB 196,66,125,88,192 ; vpbroadcastd %xmm8,%ymm8
- DB 197,61,254,5,93,53,3,0 ; vpaddd 0x3355d(%rip),%ymm8,%ymm8 # 33700 <_sk_srcover_rgba_8888_sse2_lowp+0x2cc>
+ DB 197,61,254,5,253,155,2,0 ; vpaddd 0x29bfd(%rip),%ymm8,%ymm8 # 29da0 <_sk_srcover_rgba_8888_sse2_lowp+0x2e8>
DB 197,121,110,201 ; vmovd %ecx,%xmm9
DB 196,66,125,88,201 ; vpbroadcastd %xmm9,%ymm9
DB 196,65,53,239,200 ; vpxor %ymm8,%ymm9,%ymm9
- DB 196,98,125,88,21,242,62,3,0 ; vpbroadcastd 0x33ef2(%rip),%ymm10 # 340ac <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 196,98,125,88,21,50,161,2,0 ; vpbroadcastd 0x2a132(%rip),%ymm10 # 2a2ec <_sk_srcover_rgba_8888_sse2_lowp+0x834>
DB 196,65,53,219,218 ; vpand %ymm10,%ymm9,%ymm11
DB 196,193,37,114,243,5 ; vpslld $0x5,%ymm11,%ymm11
DB 196,65,61,219,210 ; vpand %ymm10,%ymm8,%ymm10
DB 196,193,45,114,242,4 ; vpslld $0x4,%ymm10,%ymm10
- DB 196,98,125,88,37,215,62,3,0 ; vpbroadcastd 0x33ed7(%rip),%ymm12 # 340b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
- DB 196,98,125,88,45,210,62,3,0 ; vpbroadcastd 0x33ed2(%rip),%ymm13 # 340b4 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ DB 196,98,125,88,37,23,161,2,0 ; vpbroadcastd 0x2a117(%rip),%ymm12 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
+ DB 196,98,125,88,45,18,161,2,0 ; vpbroadcastd 0x2a112(%rip),%ymm13 # 2a2f4 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
DB 196,65,53,219,245 ; vpand %ymm13,%ymm9,%ymm14
DB 196,193,13,114,246,2 ; vpslld $0x2,%ymm14,%ymm14
DB 196,65,37,235,222 ; vpor %ymm14,%ymm11,%ymm11
@@ -144,8 +144,8 @@ _sk_dither_hsw LABEL PROC
DB 196,65,61,235,195 ; vpor %ymm11,%ymm8,%ymm8
DB 196,65,61,235,193 ; vpor %ymm9,%ymm8,%ymm8
DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,132,62,3,0 ; vbroadcastss 0x33e84(%rip),%ymm9 # 340b8 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
- DB 196,98,125,24,21,127,62,3,0 ; vbroadcastss 0x33e7f(%rip),%ymm10 # 340bc <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ DB 196,98,125,24,13,196,160,2,0 ; vbroadcastss 0x2a0c4(%rip),%ymm9 # 2a2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x840>
+ DB 196,98,125,24,21,191,160,2,0 ; vbroadcastss 0x2a0bf(%rip),%ymm10 # 2a2fc <_sk_srcover_rgba_8888_sse2_lowp+0x844>
DB 196,66,61,184,209 ; vfmadd231ps %ymm9,%ymm8,%ymm10
DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
DB 196,65,44,89,192 ; vmulps %ymm8,%ymm10,%ymm8
@@ -175,7 +175,7 @@ _sk_uniform_color_hsw LABEL PROC
PUBLIC _sk_black_color_hsw
_sk_black_color_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,7,62,3,0 ; vbroadcastss 0x33e07(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,71,160,2,0 ; vbroadcastss 0x2a047(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
@@ -184,7 +184,7 @@ _sk_black_color_hsw LABEL PROC
PUBLIC _sk_white_color_hsw
_sk_white_color_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,238,61,3,0 ; vbroadcastss 0x33dee(%rip),%ymm0 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,5,46,160,2,0 ; vbroadcastss 0x2a02e(%rip),%ymm0 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
DB 197,252,40,216 ; vmovaps %ymm0,%ymm3
@@ -222,7 +222,7 @@ _sk_clear_hsw LABEL PROC
PUBLIC _sk_srcatop_hsw
_sk_srcatop_hsw LABEL PROC
DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 196,98,125,24,5,141,61,3,0 ; vbroadcastss 0x33d8d(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,205,159,2,0 ; vbroadcastss 0x29fcd(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 196,226,61,184,196 ; vfmadd231ps %ymm4,%ymm8,%ymm0
DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
@@ -236,7 +236,7 @@ _sk_srcatop_hsw LABEL PROC
PUBLIC _sk_dstatop_hsw
_sk_dstatop_hsw LABEL PROC
- DB 196,98,125,24,5,92,61,3,0 ; vbroadcastss 0x33d5c(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,156,159,2,0 ; vbroadcastss 0x29f9c(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,199 ; vsubps %ymm7,%ymm8,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
DB 196,226,101,184,196 ; vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -269,7 +269,7 @@ _sk_dstin_hsw LABEL PROC
PUBLIC _sk_srcout_hsw
_sk_srcout_hsw LABEL PROC
- DB 196,98,125,24,5,255,60,3,0 ; vbroadcastss 0x33cff(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,63,159,2,0 ; vbroadcastss 0x29f3f(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,199 ; vsubps %ymm7,%ymm8,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
@@ -280,7 +280,7 @@ _sk_srcout_hsw LABEL PROC
PUBLIC _sk_dstout_hsw
_sk_dstout_hsw LABEL PROC
- DB 196,226,125,24,5,222,60,3,0 ; vbroadcastss 0x33cde(%rip),%ymm0 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,5,30,159,2,0 ; vbroadcastss 0x29f1e(%rip),%ymm0 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,92,219 ; vsubps %ymm3,%ymm0,%ymm3
DB 197,228,89,196 ; vmulps %ymm4,%ymm3,%ymm0
DB 197,228,89,205 ; vmulps %ymm5,%ymm3,%ymm1
@@ -291,7 +291,7 @@ _sk_dstout_hsw LABEL PROC
PUBLIC _sk_srcover_hsw
_sk_srcover_hsw LABEL PROC
- DB 196,98,125,24,5,189,60,3,0 ; vbroadcastss 0x33cbd(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,253,158,2,0 ; vbroadcastss 0x29efd(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 196,194,93,184,192 ; vfmadd231ps %ymm8,%ymm4,%ymm0
DB 196,194,85,184,200 ; vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -302,7 +302,7 @@ _sk_srcover_hsw LABEL PROC
PUBLIC _sk_dstover_hsw
_sk_dstover_hsw LABEL PROC
- DB 196,98,125,24,5,152,60,3,0 ; vbroadcastss 0x33c98(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,216,158,2,0 ; vbroadcastss 0x29ed8(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,199 ; vsubps %ymm7,%ymm8,%ymm8
DB 196,226,61,168,196 ; vfmadd213ps %ymm4,%ymm8,%ymm0
DB 196,226,61,168,205 ; vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -322,7 +322,7 @@ _sk_modulate_hsw LABEL PROC
PUBLIC _sk_multiply_hsw
_sk_multiply_hsw LABEL PROC
- DB 196,98,125,24,5,95,60,3,0 ; vbroadcastss 0x33c5f(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,159,158,2,0 ; vbroadcastss 0x29e9f(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
DB 197,52,89,208 ; vmulps %ymm0,%ymm9,%ymm10
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
@@ -343,7 +343,7 @@ _sk_multiply_hsw LABEL PROC
PUBLIC _sk_plus__hsw
_sk_plus__hsw LABEL PROC
DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
- DB 196,98,125,24,5,14,60,3,0 ; vbroadcastss 0x33c0e(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,78,158,2,0 ; vbroadcastss 0x29e4e(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
DB 197,244,88,205 ; vaddps %ymm5,%ymm1,%ymm1
DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
@@ -369,7 +369,7 @@ _sk_screen_hsw LABEL PROC
PUBLIC _sk_xor__hsw
_sk_xor__hsw LABEL PROC
- DB 196,98,125,24,5,185,59,3,0 ; vbroadcastss 0x33bb9(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,249,157,2,0 ; vbroadcastss 0x29df9(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
@@ -401,7 +401,7 @@ _sk_darken_hsw LABEL PROC
DB 197,100,89,206 ; vmulps %ymm6,%ymm3,%ymm9
DB 196,193,108,95,209 ; vmaxps %ymm9,%ymm2,%ymm2
DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,61,59,3,0 ; vbroadcastss 0x33b3d(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,125,157,2,0 ; vbroadcastss 0x29d7d(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -424,7 +424,7 @@ _sk_lighten_hsw LABEL PROC
DB 197,100,89,206 ; vmulps %ymm6,%ymm3,%ymm9
DB 196,193,108,93,209 ; vminps %ymm9,%ymm2,%ymm2
DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,232,58,3,0 ; vbroadcastss 0x33ae8(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,40,157,2,0 ; vbroadcastss 0x29d28(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -450,7 +450,7 @@ _sk_difference_hsw LABEL PROC
DB 196,193,108,93,209 ; vminps %ymm9,%ymm2,%ymm2
DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,135,58,3,0 ; vbroadcastss 0x33a87(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,199,156,2,0 ; vbroadcastss 0x29cc7(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -470,7 +470,7 @@ _sk_exclusion_hsw LABEL PROC
DB 197,236,89,214 ; vmulps %ymm6,%ymm2,%ymm2
DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,65,58,3,0 ; vbroadcastss 0x33a41(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,129,156,2,0 ; vbroadcastss 0x29c81(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -478,7 +478,7 @@ _sk_exclusion_hsw LABEL PROC
PUBLIC _sk_colorburn_hsw
_sk_colorburn_hsw LABEL PROC
- DB 196,98,125,24,5,43,58,3,0 ; vbroadcastss 0x33a2b(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,107,156,2,0 ; vbroadcastss 0x29c6b(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
DB 197,52,89,216 ; vmulps %ymm0,%ymm9,%ymm11
DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
@@ -534,7 +534,7 @@ _sk_colorburn_hsw LABEL PROC
PUBLIC _sk_colordodge_hsw
_sk_colordodge_hsw LABEL PROC
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,98,125,24,13,59,57,3,0 ; vbroadcastss 0x3393b(%rip),%ymm9 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,13,123,155,2,0 ; vbroadcastss 0x29b7b(%rip),%ymm9 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,52,92,215 ; vsubps %ymm7,%ymm9,%ymm10
DB 197,44,89,216 ; vmulps %ymm0,%ymm10,%ymm11
DB 197,52,92,203 ; vsubps %ymm3,%ymm9,%ymm9
@@ -585,7 +585,7 @@ _sk_colordodge_hsw LABEL PROC
PUBLIC _sk_hardlight_hsw
_sk_hardlight_hsw LABEL PROC
- DB 196,98,125,24,5,85,56,3,0 ; vbroadcastss 0x33855(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,149,154,2,0 ; vbroadcastss 0x29a95(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,215 ; vsubps %ymm7,%ymm8,%ymm10
DB 197,44,89,216 ; vmulps %ymm0,%ymm10,%ymm11
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
@@ -634,7 +634,7 @@ _sk_hardlight_hsw LABEL PROC
PUBLIC _sk_overlay_hsw
_sk_overlay_hsw LABEL PROC
- DB 196,98,125,24,5,137,55,3,0 ; vbroadcastss 0x33789(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,201,153,2,0 ; vbroadcastss 0x299c9(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,215 ; vsubps %ymm7,%ymm8,%ymm10
DB 197,44,89,216 ; vmulps %ymm0,%ymm10,%ymm11
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
@@ -694,10 +694,10 @@ _sk_softlight_hsw LABEL PROC
DB 196,65,20,88,197 ; vaddps %ymm13,%ymm13,%ymm8
DB 196,65,60,88,192 ; vaddps %ymm8,%ymm8,%ymm8
DB 196,66,61,168,192 ; vfmadd213ps %ymm8,%ymm8,%ymm8
- DB 196,98,125,24,29,160,54,3,0 ; vbroadcastss 0x336a0(%rip),%ymm11 # 340c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ DB 196,98,125,24,29,224,152,2,0 ; vbroadcastss 0x298e0(%rip),%ymm11 # 2a300 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
DB 196,65,20,88,227 ; vaddps %ymm11,%ymm13,%ymm12
DB 196,65,28,89,192 ; vmulps %ymm8,%ymm12,%ymm8
- DB 196,98,125,24,37,145,54,3,0 ; vbroadcastss 0x33691(%rip),%ymm12 # 340c4 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ DB 196,98,125,24,37,209,152,2,0 ; vbroadcastss 0x298d1(%rip),%ymm12 # 2a304 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
DB 196,66,21,184,196 ; vfmadd231ps %ymm12,%ymm13,%ymm8
DB 196,65,124,82,245 ; vrsqrtps %ymm13,%ymm14
DB 196,65,124,83,246 ; vrcpps %ymm14,%ymm14
@@ -707,7 +707,7 @@ _sk_softlight_hsw LABEL PROC
DB 197,4,194,255,2 ; vcmpleps %ymm7,%ymm15,%ymm15
DB 196,67,13,74,240,240 ; vblendvps %ymm15,%ymm8,%ymm14,%ymm14
DB 197,116,88,249 ; vaddps %ymm1,%ymm1,%ymm15
- DB 196,98,125,24,5,64,54,3,0 ; vbroadcastss 0x33640(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,128,152,2,0 ; vbroadcastss 0x29880(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,65,60,92,237 ; vsubps %ymm13,%ymm8,%ymm13
DB 197,132,92,195 ; vsubps %ymm3,%ymm15,%ymm0
DB 196,98,125,168,235 ; vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -820,11 +820,11 @@ _sk_hue_hsw LABEL PROC
DB 196,65,28,89,210 ; vmulps %ymm10,%ymm12,%ymm10
DB 196,65,44,94,214 ; vdivps %ymm14,%ymm10,%ymm10
DB 196,67,45,74,224,240 ; vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- DB 196,98,125,24,53,83,52,3,0 ; vbroadcastss 0x33453(%rip),%ymm14 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
- DB 196,98,125,24,61,78,52,3,0 ; vbroadcastss 0x3344e(%rip),%ymm15 # 340cc <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ DB 196,98,125,24,53,147,150,2,0 ; vbroadcastss 0x29693(%rip),%ymm14 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ DB 196,98,125,24,61,142,150,2,0 ; vbroadcastss 0x2968e(%rip),%ymm15 # 2a30c <_sk_srcover_rgba_8888_sse2_lowp+0x854>
DB 196,65,84,89,239 ; vmulps %ymm15,%ymm5,%ymm13
DB 196,66,93,184,238 ; vfmadd231ps %ymm14,%ymm4,%ymm13
- DB 196,226,125,24,5,63,52,3,0 ; vbroadcastss 0x3343f(%rip),%ymm0 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
+ DB 196,226,125,24,5,127,150,2,0 ; vbroadcastss 0x2967f(%rip),%ymm0 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
DB 196,98,77,184,232 ; vfmadd231ps %ymm0,%ymm6,%ymm13
DB 196,65,116,89,215 ; vmulps %ymm15,%ymm1,%ymm10
DB 196,66,53,184,214 ; vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -879,7 +879,7 @@ _sk_hue_hsw LABEL PROC
DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
DB 196,65,36,95,200 ; vmaxps %ymm8,%ymm11,%ymm9
DB 196,65,116,95,192 ; vmaxps %ymm8,%ymm1,%ymm8
- DB 196,226,125,24,13,0,51,3,0 ; vbroadcastss 0x33300(%rip),%ymm1 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,13,64,149,2,0 ; vbroadcastss 0x29540(%rip),%ymm1 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,116,92,215 ; vsubps %ymm7,%ymm1,%ymm10
DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
DB 197,116,92,219 ; vsubps %ymm3,%ymm1,%ymm11
@@ -933,11 +933,11 @@ _sk_saturation_hsw LABEL PROC
DB 196,65,28,89,210 ; vmulps %ymm10,%ymm12,%ymm10
DB 196,65,44,94,214 ; vdivps %ymm14,%ymm10,%ymm10
DB 196,67,45,74,224,240 ; vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- DB 196,98,125,24,53,45,50,3,0 ; vbroadcastss 0x3322d(%rip),%ymm14 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
- DB 196,98,125,24,61,40,50,3,0 ; vbroadcastss 0x33228(%rip),%ymm15 # 340cc <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ DB 196,98,125,24,53,109,148,2,0 ; vbroadcastss 0x2946d(%rip),%ymm14 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ DB 196,98,125,24,61,104,148,2,0 ; vbroadcastss 0x29468(%rip),%ymm15 # 2a30c <_sk_srcover_rgba_8888_sse2_lowp+0x854>
DB 196,65,84,89,239 ; vmulps %ymm15,%ymm5,%ymm13
DB 196,66,93,184,238 ; vfmadd231ps %ymm14,%ymm4,%ymm13
- DB 196,226,125,24,5,25,50,3,0 ; vbroadcastss 0x33219(%rip),%ymm0 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
+ DB 196,226,125,24,5,89,148,2,0 ; vbroadcastss 0x29459(%rip),%ymm0 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
DB 196,98,77,184,232 ; vfmadd231ps %ymm0,%ymm6,%ymm13
DB 196,65,116,89,215 ; vmulps %ymm15,%ymm1,%ymm10
DB 196,66,53,184,214 ; vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -992,7 +992,7 @@ _sk_saturation_hsw LABEL PROC
DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
DB 196,65,36,95,200 ; vmaxps %ymm8,%ymm11,%ymm9
DB 196,65,116,95,192 ; vmaxps %ymm8,%ymm1,%ymm8
- DB 196,226,125,24,13,218,48,3,0 ; vbroadcastss 0x330da(%rip),%ymm1 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,13,26,147,2,0 ; vbroadcastss 0x2931a(%rip),%ymm1 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,116,92,215 ; vsubps %ymm7,%ymm1,%ymm10
DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
DB 197,116,92,219 ; vsubps %ymm3,%ymm1,%ymm11
@@ -1020,11 +1020,11 @@ _sk_color_hsw LABEL PROC
DB 197,108,89,199 ; vmulps %ymm7,%ymm2,%ymm8
DB 197,116,89,215 ; vmulps %ymm7,%ymm1,%ymm10
DB 197,52,89,223 ; vmulps %ymm7,%ymm9,%ymm11
- DB 196,98,125,24,45,137,48,3,0 ; vbroadcastss 0x33089(%rip),%ymm13 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
- DB 196,98,125,24,53,132,48,3,0 ; vbroadcastss 0x33084(%rip),%ymm14 # 340cc <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ DB 196,98,125,24,45,201,146,2,0 ; vbroadcastss 0x292c9(%rip),%ymm13 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ DB 196,98,125,24,53,196,146,2,0 ; vbroadcastss 0x292c4(%rip),%ymm14 # 2a30c <_sk_srcover_rgba_8888_sse2_lowp+0x854>
DB 196,65,84,89,230 ; vmulps %ymm14,%ymm5,%ymm12
DB 196,66,93,184,229 ; vfmadd231ps %ymm13,%ymm4,%ymm12
- DB 196,98,125,24,61,117,48,3,0 ; vbroadcastss 0x33075(%rip),%ymm15 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
+ DB 196,98,125,24,61,181,146,2,0 ; vbroadcastss 0x292b5(%rip),%ymm15 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
DB 196,66,77,184,231 ; vfmadd231ps %ymm15,%ymm6,%ymm12
DB 196,65,44,89,206 ; vmulps %ymm14,%ymm10,%ymm9
DB 196,66,61,184,205 ; vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -1080,7 +1080,7 @@ _sk_color_hsw LABEL PROC
DB 196,193,116,95,206 ; vmaxps %ymm14,%ymm1,%ymm1
DB 196,65,44,95,198 ; vmaxps %ymm14,%ymm10,%ymm8
DB 196,65,124,95,206 ; vmaxps %ymm14,%ymm0,%ymm9
- DB 196,226,125,24,5,43,47,3,0 ; vbroadcastss 0x32f2b(%rip),%ymm0 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,5,107,145,2,0 ; vbroadcastss 0x2916b(%rip),%ymm0 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,124,92,215 ; vsubps %ymm7,%ymm0,%ymm10
DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
DB 197,124,92,219 ; vsubps %ymm3,%ymm0,%ymm11
@@ -1108,11 +1108,11 @@ _sk_luminosity_hsw LABEL PROC
DB 197,100,89,196 ; vmulps %ymm4,%ymm3,%ymm8
DB 197,100,89,213 ; vmulps %ymm5,%ymm3,%ymm10
DB 197,100,89,222 ; vmulps %ymm6,%ymm3,%ymm11
- DB 196,98,125,24,45,218,46,3,0 ; vbroadcastss 0x32eda(%rip),%ymm13 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
- DB 196,98,125,24,53,213,46,3,0 ; vbroadcastss 0x32ed5(%rip),%ymm14 # 340cc <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ DB 196,98,125,24,45,26,145,2,0 ; vbroadcastss 0x2911a(%rip),%ymm13 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ DB 196,98,125,24,53,21,145,2,0 ; vbroadcastss 0x29115(%rip),%ymm14 # 2a30c <_sk_srcover_rgba_8888_sse2_lowp+0x854>
DB 196,65,116,89,230 ; vmulps %ymm14,%ymm1,%ymm12
DB 196,66,109,184,229 ; vfmadd231ps %ymm13,%ymm2,%ymm12
- DB 196,98,125,24,61,198,46,3,0 ; vbroadcastss 0x32ec6(%rip),%ymm15 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
+ DB 196,98,125,24,61,6,145,2,0 ; vbroadcastss 0x29106(%rip),%ymm15 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
DB 196,66,53,184,231 ; vfmadd231ps %ymm15,%ymm9,%ymm12
DB 196,65,44,89,206 ; vmulps %ymm14,%ymm10,%ymm9
DB 196,66,61,184,205 ; vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -1168,7 +1168,7 @@ _sk_luminosity_hsw LABEL PROC
DB 196,193,116,95,206 ; vmaxps %ymm14,%ymm1,%ymm1
DB 196,65,44,95,198 ; vmaxps %ymm14,%ymm10,%ymm8
DB 196,65,124,95,206 ; vmaxps %ymm14,%ymm0,%ymm9
- DB 196,226,125,24,5,124,45,3,0 ; vbroadcastss 0x32d7c(%rip),%ymm0 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,5,188,143,2,0 ; vbroadcastss 0x28fbc(%rip),%ymm0 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,124,92,215 ; vsubps %ymm7,%ymm0,%ymm10
DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
DB 197,124,92,219 ; vsubps %ymm3,%ymm0,%ymm11
@@ -1198,17 +1198,17 @@ _sk_srcover_rgba_8888_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,179,0,0,0 ; jne 1444 <_sk_srcover_rgba_8888_hsw+0xd3>
DB 196,129,126,111,60,152 ; vmovdqu (%r8,%r11,4),%ymm7
- DB 197,197,219,37,129,35,3,0 ; vpand 0x32381(%rip),%ymm7,%ymm4 # 33720 <_sk_srcover_rgba_8888_sse2_lowp+0x2ec>
+ DB 197,197,219,37,33,138,2,0 ; vpand 0x28a21(%rip),%ymm7,%ymm4 # 29dc0 <_sk_srcover_rgba_8888_sse2_lowp+0x308>
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,69,0,45,148,35,3,0 ; vpshufb 0x32394(%rip),%ymm7,%ymm5 # 33740 <_sk_srcover_rgba_8888_sse2_lowp+0x30c>
+ DB 196,226,69,0,45,52,138,2,0 ; vpshufb 0x28a34(%rip),%ymm7,%ymm5 # 29de0 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,226,69,0,53,167,35,3,0 ; vpshufb 0x323a7(%rip),%ymm7,%ymm6 # 33760 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
+ DB 196,226,69,0,53,71,138,2,0 ; vpshufb 0x28a47(%rip),%ymm7,%ymm6 # 29e00 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
DB 197,197,114,215,24 ; vpsrld $0x18,%ymm7,%ymm7
DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,5,217,44,3,0 ; vbroadcastss 0x32cd9(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,25,143,2,0 ; vbroadcastss 0x28f19(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,98,125,24,13,248,44,3,0 ; vbroadcastss 0x32cf8(%rip),%ymm9 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,13,56,143,2,0 ; vbroadcastss 0x28f38(%rip),%ymm9 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
DB 196,194,93,184,192 ; vfmadd231ps %ymm8,%ymm4,%ymm0
DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
@@ -1330,7 +1330,7 @@ _sk_clamp_0_hsw LABEL PROC
PUBLIC _sk_clamp_1_hsw
_sk_clamp_1_hsw LABEL PROC
- DB 196,98,125,24,5,230,42,3,0 ; vbroadcastss 0x32ae6(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,38,141,2,0 ; vbroadcastss 0x28d26(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
@@ -1340,7 +1340,7 @@ _sk_clamp_1_hsw LABEL PROC
PUBLIC _sk_clamp_a_hsw
_sk_clamp_a_hsw LABEL PROC
- DB 196,98,125,24,5,197,42,3,0 ; vbroadcastss 0x32ac5(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,5,141,2,0 ; vbroadcastss 0x28d05(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
DB 197,252,93,195 ; vminps %ymm3,%ymm0,%ymm0
DB 197,244,93,203 ; vminps %ymm3,%ymm1,%ymm1
@@ -1350,7 +1350,7 @@ _sk_clamp_a_hsw LABEL PROC
PUBLIC _sk_clamp_a_dst_hsw
_sk_clamp_a_dst_hsw LABEL PROC
- DB 196,98,125,24,5,167,42,3,0 ; vbroadcastss 0x32aa7(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,231,140,2,0 ; vbroadcastss 0x28ce7(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,68,93,248 ; vminps %ymm8,%ymm7,%ymm7
DB 197,220,93,231 ; vminps %ymm7,%ymm4,%ymm4
DB 197,212,93,239 ; vminps %ymm7,%ymm5,%ymm5
@@ -1377,7 +1377,7 @@ _sk_swap_rb_hsw LABEL PROC
PUBLIC _sk_invert_hsw
_sk_invert_hsw LABEL PROC
- DB 196,98,125,24,5,98,42,3,0 ; vbroadcastss 0x32a62(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,162,140,2,0 ; vbroadcastss 0x28ca2(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
@@ -1423,7 +1423,7 @@ PUBLIC _sk_unpremul_hsw
_sk_unpremul_hsw LABEL PROC
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 196,65,100,194,200,0 ; vcmpeqps %ymm8,%ymm3,%ymm9
- DB 196,98,125,24,21,242,41,3,0 ; vbroadcastss 0x329f2(%rip),%ymm10 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,21,50,140,2,0 ; vbroadcastss 0x28c32(%rip),%ymm10 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,44,94,211 ; vdivps %ymm3,%ymm10,%ymm10
DB 196,67,45,74,192,144 ; vblendvps %ymm9,%ymm8,%ymm10,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
@@ -1434,16 +1434,16 @@ _sk_unpremul_hsw LABEL PROC
PUBLIC _sk_from_srgb_hsw
_sk_from_srgb_hsw LABEL PROC
- DB 196,98,125,24,5,255,41,3,0 ; vbroadcastss 0x329ff(%rip),%ymm8 # 340d8 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ DB 196,98,125,24,5,63,140,2,0 ; vbroadcastss 0x28c3f(%rip),%ymm8 # 2a318 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
DB 197,124,89,208 ; vmulps %ymm0,%ymm0,%ymm10
- DB 196,98,125,24,29,241,41,3,0 ; vbroadcastss 0x329f1(%rip),%ymm11 # 340dc <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
- DB 196,98,125,24,37,212,41,3,0 ; vbroadcastss 0x329d4(%rip),%ymm12 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ DB 196,98,125,24,29,49,140,2,0 ; vbroadcastss 0x28c31(%rip),%ymm11 # 2a31c <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+ DB 196,98,125,24,37,20,140,2,0 ; vbroadcastss 0x28c14(%rip),%ymm12 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
DB 196,65,124,40,236 ; vmovaps %ymm12,%ymm13
DB 196,66,125,168,235 ; vfmadd213ps %ymm11,%ymm0,%ymm13
- DB 196,98,125,24,53,217,41,3,0 ; vbroadcastss 0x329d9(%rip),%ymm14 # 340e0 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ DB 196,98,125,24,53,25,140,2,0 ; vbroadcastss 0x28c19(%rip),%ymm14 # 2a320 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
DB 196,66,45,168,238 ; vfmadd213ps %ymm14,%ymm10,%ymm13
- DB 196,98,125,24,21,207,41,3,0 ; vbroadcastss 0x329cf(%rip),%ymm10 # 340e4 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ DB 196,98,125,24,21,15,140,2,0 ; vbroadcastss 0x28c0f(%rip),%ymm10 # 2a324 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
DB 196,193,124,194,194,1 ; vcmpltps %ymm10,%ymm0,%ymm0
DB 196,195,21,74,193,0 ; vblendvps %ymm0,%ymm9,%ymm13,%ymm0
DB 196,65,116,89,200 ; vmulps %ymm8,%ymm1,%ymm9
@@ -1464,16 +1464,16 @@ _sk_from_srgb_hsw LABEL PROC
PUBLIC _sk_from_srgb_dst_hsw
_sk_from_srgb_dst_hsw LABEL PROC
- DB 196,98,125,24,5,103,41,3,0 ; vbroadcastss 0x32967(%rip),%ymm8 # 340d8 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ DB 196,98,125,24,5,167,139,2,0 ; vbroadcastss 0x28ba7(%rip),%ymm8 # 2a318 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
DB 196,65,92,89,200 ; vmulps %ymm8,%ymm4,%ymm9
DB 197,92,89,212 ; vmulps %ymm4,%ymm4,%ymm10
- DB 196,98,125,24,29,89,41,3,0 ; vbroadcastss 0x32959(%rip),%ymm11 # 340dc <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
- DB 196,98,125,24,37,60,41,3,0 ; vbroadcastss 0x3293c(%rip),%ymm12 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ DB 196,98,125,24,29,153,139,2,0 ; vbroadcastss 0x28b99(%rip),%ymm11 # 2a31c <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+ DB 196,98,125,24,37,124,139,2,0 ; vbroadcastss 0x28b7c(%rip),%ymm12 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
DB 196,65,124,40,236 ; vmovaps %ymm12,%ymm13
DB 196,66,93,168,235 ; vfmadd213ps %ymm11,%ymm4,%ymm13
- DB 196,98,125,24,53,65,41,3,0 ; vbroadcastss 0x32941(%rip),%ymm14 # 340e0 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ DB 196,98,125,24,53,129,139,2,0 ; vbroadcastss 0x28b81(%rip),%ymm14 # 2a320 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
DB 196,66,45,168,238 ; vfmadd213ps %ymm14,%ymm10,%ymm13
- DB 196,98,125,24,21,55,41,3,0 ; vbroadcastss 0x32937(%rip),%ymm10 # 340e4 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ DB 196,98,125,24,21,119,139,2,0 ; vbroadcastss 0x28b77(%rip),%ymm10 # 2a324 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
DB 196,193,92,194,226,1 ; vcmpltps %ymm10,%ymm4,%ymm4
DB 196,195,21,74,225,64 ; vblendvps %ymm4,%ymm9,%ymm13,%ymm4
DB 196,65,84,89,200 ; vmulps %ymm8,%ymm5,%ymm9
@@ -1495,19 +1495,19 @@ _sk_from_srgb_dst_hsw LABEL PROC
PUBLIC _sk_to_srgb_hsw
_sk_to_srgb_hsw LABEL PROC
DB 197,124,82,200 ; vrsqrtps %ymm0,%ymm9
- DB 196,98,125,24,5,219,40,3,0 ; vbroadcastss 0x328db(%rip),%ymm8 # 340e8 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ DB 196,98,125,24,5,27,139,2,0 ; vbroadcastss 0x28b1b(%rip),%ymm8 # 2a328 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
DB 196,65,124,89,208 ; vmulps %ymm8,%ymm0,%ymm10
- DB 196,98,125,24,29,209,40,3,0 ; vbroadcastss 0x328d1(%rip),%ymm11 # 340ec <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
- DB 196,98,125,24,37,204,40,3,0 ; vbroadcastss 0x328cc(%rip),%ymm12 # 340f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
+ DB 196,98,125,24,29,17,139,2,0 ; vbroadcastss 0x28b11(%rip),%ymm11 # 2a32c <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ DB 196,98,125,24,37,12,139,2,0 ; vbroadcastss 0x28b0c(%rip),%ymm12 # 2a330 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
DB 196,65,124,40,236 ; vmovaps %ymm12,%ymm13
DB 196,66,53,168,235 ; vfmadd213ps %ymm11,%ymm9,%ymm13
- DB 196,98,125,24,53,189,40,3,0 ; vbroadcastss 0x328bd(%rip),%ymm14 # 340f4 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ DB 196,98,125,24,53,253,138,2,0 ; vbroadcastss 0x28afd(%rip),%ymm14 # 2a334 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
DB 196,66,53,168,238 ; vfmadd213ps %ymm14,%ymm9,%ymm13
- DB 196,98,125,24,61,179,40,3,0 ; vbroadcastss 0x328b3(%rip),%ymm15 # 340f8 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ DB 196,98,125,24,61,243,138,2,0 ; vbroadcastss 0x28af3(%rip),%ymm15 # 2a338 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
DB 196,65,52,88,207 ; vaddps %ymm15,%ymm9,%ymm9
DB 196,65,124,83,201 ; vrcpps %ymm9,%ymm9
DB 196,65,20,89,201 ; vmulps %ymm9,%ymm13,%ymm9
- DB 196,98,125,24,45,159,40,3,0 ; vbroadcastss 0x3289f(%rip),%ymm13 # 340fc <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
+ DB 196,98,125,24,45,223,138,2,0 ; vbroadcastss 0x28adf(%rip),%ymm13 # 2a33c <_sk_srcover_rgba_8888_sse2_lowp+0x884>
DB 196,193,124,194,197,1 ; vcmpltps %ymm13,%ymm0,%ymm0
DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
DB 197,124,82,201 ; vrsqrtps %ymm1,%ymm9
@@ -1539,26 +1539,26 @@ _sk_rgb_to_hsl_hsw LABEL PROC
DB 197,116,93,202 ; vminps %ymm2,%ymm1,%ymm9
DB 196,65,124,93,201 ; vminps %ymm9,%ymm0,%ymm9
DB 196,65,60,92,209 ; vsubps %ymm9,%ymm8,%ymm10
- DB 196,98,125,24,29,186,39,3,0 ; vbroadcastss 0x327ba(%rip),%ymm11 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,29,250,137,2,0 ; vbroadcastss 0x289fa(%rip),%ymm11 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,65,36,94,218 ; vdivps %ymm10,%ymm11,%ymm11
DB 197,116,92,226 ; vsubps %ymm2,%ymm1,%ymm12
DB 197,116,194,234,1 ; vcmpltps %ymm2,%ymm1,%ymm13
- DB 196,98,125,24,53,251,39,3,0 ; vbroadcastss 0x327fb(%rip),%ymm14 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ DB 196,98,125,24,53,59,138,2,0 ; vbroadcastss 0x28a3b(%rip),%ymm14 # 2a340 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
DB 196,65,4,87,255 ; vxorps %ymm15,%ymm15,%ymm15
DB 196,67,5,74,238,208 ; vblendvps %ymm13,%ymm14,%ymm15,%ymm13
DB 196,66,37,168,229 ; vfmadd213ps %ymm13,%ymm11,%ymm12
DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
DB 197,124,92,233 ; vsubps %ymm1,%ymm0,%ymm13
- DB 196,98,125,24,53,226,39,3,0 ; vbroadcastss 0x327e2(%rip),%ymm14 # 34108 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ DB 196,98,125,24,53,34,138,2,0 ; vbroadcastss 0x28a22(%rip),%ymm14 # 2a348 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
DB 196,66,37,168,238 ; vfmadd213ps %ymm14,%ymm11,%ymm13
- DB 196,98,125,24,53,208,39,3,0 ; vbroadcastss 0x327d0(%rip),%ymm14 # 34104 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ DB 196,98,125,24,53,16,138,2,0 ; vbroadcastss 0x28a10(%rip),%ymm14 # 2a344 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
DB 196,194,37,168,214 ; vfmadd213ps %ymm14,%ymm11,%ymm2
DB 197,188,194,201,0 ; vcmpeqps %ymm1,%ymm8,%ymm1
DB 196,227,21,74,202,16 ; vblendvps %ymm1,%ymm2,%ymm13,%ymm1
DB 197,188,194,192,0 ; vcmpeqps %ymm0,%ymm8,%ymm0
DB 196,195,117,74,196,0 ; vblendvps %ymm0,%ymm12,%ymm1,%ymm0
DB 196,193,60,88,201 ; vaddps %ymm9,%ymm8,%ymm1
- DB 196,98,125,24,29,71,39,3,0 ; vbroadcastss 0x32747(%rip),%ymm11 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,29,135,137,2,0 ; vbroadcastss 0x28987(%rip),%ymm11 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,193,116,89,211 ; vmulps %ymm11,%ymm1,%ymm2
DB 197,36,194,218,1 ; vcmpltps %ymm2,%ymm11,%ymm11
DB 196,65,12,92,224 ; vsubps %ymm8,%ymm14,%ymm12
@@ -1568,7 +1568,7 @@ _sk_rgb_to_hsl_hsw LABEL PROC
DB 197,172,94,201 ; vdivps %ymm1,%ymm10,%ymm1
DB 196,195,125,74,199,128 ; vblendvps %ymm8,%ymm15,%ymm0,%ymm0
DB 196,195,117,74,207,128 ; vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- DB 196,98,125,24,5,118,39,3,0 ; vbroadcastss 0x32776(%rip),%ymm8 # 3410c <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 196,98,125,24,5,182,137,2,0 ; vbroadcastss 0x289b6(%rip),%ymm8 # 2a34c <_sk_srcover_rgba_8888_sse2_lowp+0x894>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -1583,30 +1583,30 @@ _sk_hsl_to_rgb_hsw LABEL PROC
DB 197,252,17,28,36 ; vmovups %ymm3,(%rsp)
DB 197,252,40,233 ; vmovaps %ymm1,%ymm5
DB 197,252,40,224 ; vmovaps %ymm0,%ymm4
- DB 196,98,125,24,5,205,38,3,0 ; vbroadcastss 0x326cd(%rip),%ymm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,5,13,137,2,0 ; vbroadcastss 0x2890d(%rip),%ymm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,60,194,202,2 ; vcmpleps %ymm2,%ymm8,%ymm9
DB 197,84,89,210 ; vmulps %ymm2,%ymm5,%ymm10
DB 196,65,84,92,218 ; vsubps %ymm10,%ymm5,%ymm11
DB 196,67,45,74,203,144 ; vblendvps %ymm9,%ymm11,%ymm10,%ymm9
DB 197,52,88,210 ; vaddps %ymm2,%ymm9,%ymm10
- DB 196,98,125,24,13,12,39,3,0 ; vbroadcastss 0x3270c(%rip),%ymm9 # 34104 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ DB 196,98,125,24,13,76,137,2,0 ; vbroadcastss 0x2894c(%rip),%ymm9 # 2a344 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
DB 196,66,109,170,202 ; vfmsub213ps %ymm10,%ymm2,%ymm9
- DB 196,98,125,24,29,10,39,3,0 ; vbroadcastss 0x3270a(%rip),%ymm11 # 34110 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ DB 196,98,125,24,29,74,137,2,0 ; vbroadcastss 0x2894a(%rip),%ymm11 # 2a350 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
DB 196,65,92,88,219 ; vaddps %ymm11,%ymm4,%ymm11
DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
DB 196,65,36,92,252 ; vsubps %ymm12,%ymm11,%ymm15
DB 196,65,44,92,217 ; vsubps %ymm9,%ymm10,%ymm11
- DB 196,98,125,24,45,220,38,3,0 ; vbroadcastss 0x326dc(%rip),%ymm13 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ DB 196,98,125,24,45,28,137,2,0 ; vbroadcastss 0x2891c(%rip),%ymm13 # 2a340 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
DB 196,193,4,89,197 ; vmulps %ymm13,%ymm15,%ymm0
- DB 196,98,125,24,53,214,38,3,0 ; vbroadcastss 0x326d6(%rip),%ymm14 # 34108 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ DB 196,98,125,24,53,22,137,2,0 ; vbroadcastss 0x28916(%rip),%ymm14 # 2a348 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
DB 197,12,92,224 ; vsubps %ymm0,%ymm14,%ymm12
DB 196,66,37,168,225 ; vfmadd213ps %ymm9,%ymm11,%ymm12
- DB 196,226,125,24,29,208,38,3,0 ; vbroadcastss 0x326d0(%rip),%ymm3 # 34114 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ DB 196,226,125,24,29,16,137,2,0 ; vbroadcastss 0x28910(%rip),%ymm3 # 2a354 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
DB 196,193,100,194,255,2 ; vcmpleps %ymm15,%ymm3,%ymm7
DB 196,195,29,74,249,112 ; vblendvps %ymm7,%ymm9,%ymm12,%ymm7
DB 196,65,60,194,231,2 ; vcmpleps %ymm15,%ymm8,%ymm12
DB 196,227,45,74,255,192 ; vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- DB 196,98,125,24,37,167,38,3,0 ; vbroadcastss 0x326a7(%rip),%ymm12 # 3410c <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 196,98,125,24,37,231,136,2,0 ; vbroadcastss 0x288e7(%rip),%ymm12 # 2a34c <_sk_srcover_rgba_8888_sse2_lowp+0x894>
DB 196,65,28,194,255,2 ; vcmpleps %ymm15,%ymm12,%ymm15
DB 196,194,37,168,193 ; vfmadd213ps %ymm9,%ymm11,%ymm0
DB 196,99,125,74,255,240 ; vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -1622,7 +1622,7 @@ _sk_hsl_to_rgb_hsw LABEL PROC
DB 197,156,194,192,2 ; vcmpleps %ymm0,%ymm12,%ymm0
DB 196,194,37,168,249 ; vfmadd213ps %ymm9,%ymm11,%ymm7
DB 196,227,69,74,201,0 ; vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- DB 196,226,125,24,5,91,38,3,0 ; vbroadcastss 0x3265b(%rip),%ymm0 # 34118 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ DB 196,226,125,24,5,155,136,2,0 ; vbroadcastss 0x2889b(%rip),%ymm0 # 2a358 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
DB 196,227,125,8,224,1 ; vroundps $0x1,%ymm0,%ymm4
DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
@@ -1672,10 +1672,10 @@ _sk_scale_u8_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,58 ; jne 1bb2 <_sk_scale_u8_hsw+0x52>
DB 196,2,121,48,4,24 ; vpmovzxbw (%r8,%r11,1),%xmm8
- DB 197,57,219,5,218,38,3,0 ; vpand 0x326da(%rip),%xmm8,%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,57,219,5,250,136,2,0 ; vpand 0x288fa(%rip),%xmm8,%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,131,37,3,0 ; vbroadcastss 0x32583(%rip),%ymm9 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,13,195,135,2,0 ; vbroadcastss 0x287c3(%rip),%ymm9 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
@@ -1724,7 +1724,7 @@ _sk_scale_u8_hsw LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 233,255,255,255,222 ; jmpq ffffffffdf001c5c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefce828>
+ DB 233,255,255,255,222 ; jmpq ffffffffdf001c5c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd81a4>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,211 ; callq *%rbx
@@ -1748,20 +1748,20 @@ _sk_scale_565_hsw LABEL PROC
DB 15,133,161,0,0,0 ; jne 1d28 <_sk_scale_565_hsw+0xc0>
DB 196,1,122,111,4,88 ; vmovdqu (%r8,%r11,2),%xmm8
DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
- DB 196,98,125,88,13,133,36,3,0 ; vpbroadcastd 0x32485(%rip),%ymm9 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ DB 196,98,125,88,13,197,134,2,0 ; vpbroadcastd 0x286c5(%rip),%ymm9 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
DB 196,65,61,219,201 ; vpand %ymm9,%ymm8,%ymm9
DB 196,65,124,91,201 ; vcvtdq2ps %ymm9,%ymm9
- DB 196,98,125,24,21,118,36,3,0 ; vbroadcastss 0x32476(%rip),%ymm10 # 34124 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ DB 196,98,125,24,21,182,134,2,0 ; vbroadcastss 0x286b6(%rip),%ymm10 # 2a364 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,98,125,88,21,108,36,3,0 ; vpbroadcastd 0x3246c(%rip),%ymm10 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ DB 196,98,125,88,21,172,134,2,0 ; vpbroadcastd 0x286ac(%rip),%ymm10 # 2a368 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
DB 196,65,61,219,210 ; vpand %ymm10,%ymm8,%ymm10
DB 196,65,124,91,210 ; vcvtdq2ps %ymm10,%ymm10
- DB 196,98,125,24,29,93,36,3,0 ; vbroadcastss 0x3245d(%rip),%ymm11 # 3412c <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 196,98,125,24,29,157,134,2,0 ; vbroadcastss 0x2869d(%rip),%ymm11 # 2a36c <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
- DB 196,98,125,88,29,83,36,3,0 ; vpbroadcastd 0x32453(%rip),%ymm11 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ DB 196,98,125,88,29,147,134,2,0 ; vpbroadcastd 0x28693(%rip),%ymm11 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
DB 196,65,61,219,195 ; vpand %ymm11,%ymm8,%ymm8
DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,29,68,36,3,0 ; vbroadcastss 0x32444(%rip),%ymm11 # 34134 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ DB 196,98,125,24,29,132,134,2,0 ; vbroadcastss 0x28684(%rip),%ymm11 # 2a374 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
DB 197,100,194,223,1 ; vcmpltps %ymm7,%ymm3,%ymm11
DB 196,65,44,93,224 ; vminps %ymm8,%ymm10,%ymm12
@@ -1848,10 +1848,10 @@ _sk_lerp_u8_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,78 ; jne 1e61 <_sk_lerp_u8_hsw+0x66>
DB 196,2,121,48,4,24 ; vpmovzxbw (%r8,%r11,1),%xmm8
- DB 197,57,219,5,63,36,3,0 ; vpand 0x3243f(%rip),%xmm8,%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,57,219,5,95,134,2,0 ; vpand 0x2865f(%rip),%xmm8,%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,232,34,3,0 ; vbroadcastss 0x322e8(%rip),%ymm9 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,13,40,133,2,0 ; vbroadcastss 0x28528(%rip),%ymm9 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
DB 196,226,61,168,196 ; vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -1903,7 +1903,7 @@ _sk_lerp_u8_hsw LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde001f0c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfcead8>
+ DB 232,255,255,255,221 ; callq ffffffffde001f0c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd8454>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,210 ; callq *%rdx
@@ -1927,20 +1927,20 @@ _sk_lerp_565_hsw LABEL PROC
DB 15,133,181,0,0,0 ; jne 1fec <_sk_lerp_565_hsw+0xd4>
DB 196,1,122,111,4,88 ; vmovdqu (%r8,%r11,2),%xmm8
DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
- DB 196,98,125,88,13,213,33,3,0 ; vpbroadcastd 0x321d5(%rip),%ymm9 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ DB 196,98,125,88,13,21,132,2,0 ; vpbroadcastd 0x28415(%rip),%ymm9 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
DB 196,65,61,219,201 ; vpand %ymm9,%ymm8,%ymm9
DB 196,65,124,91,201 ; vcvtdq2ps %ymm9,%ymm9
- DB 196,98,125,24,21,198,33,3,0 ; vbroadcastss 0x321c6(%rip),%ymm10 # 34124 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ DB 196,98,125,24,21,6,132,2,0 ; vbroadcastss 0x28406(%rip),%ymm10 # 2a364 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,98,125,88,21,188,33,3,0 ; vpbroadcastd 0x321bc(%rip),%ymm10 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ DB 196,98,125,88,21,252,131,2,0 ; vpbroadcastd 0x283fc(%rip),%ymm10 # 2a368 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
DB 196,65,61,219,210 ; vpand %ymm10,%ymm8,%ymm10
DB 196,65,124,91,210 ; vcvtdq2ps %ymm10,%ymm10
- DB 196,98,125,24,29,173,33,3,0 ; vbroadcastss 0x321ad(%rip),%ymm11 # 3412c <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 196,98,125,24,29,237,131,2,0 ; vbroadcastss 0x283ed(%rip),%ymm11 # 2a36c <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
- DB 196,98,125,88,29,163,33,3,0 ; vpbroadcastd 0x321a3(%rip),%ymm11 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ DB 196,98,125,88,29,227,131,2,0 ; vpbroadcastd 0x283e3(%rip),%ymm11 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
DB 196,65,61,219,195 ; vpand %ymm11,%ymm8,%ymm8
DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,29,148,33,3,0 ; vbroadcastss 0x32194(%rip),%ymm11 # 34134 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ DB 196,98,125,24,29,212,131,2,0 ; vbroadcastss 0x283d4(%rip),%ymm11 # 2a374 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
DB 197,100,194,223,1 ; vcmpltps %ymm7,%ymm3,%ymm11
DB 196,65,44,93,224 ; vminps %ymm8,%ymm10,%ymm12
@@ -2012,7 +2012,7 @@ _sk_load_tables_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,116 ; jne 210e <_sk_load_tables_hsw+0x7e>
DB 196,193,126,111,28,144 ; vmovdqu (%r8,%rdx,4),%ymm3
- DB 197,229,219,13,216,22,3,0 ; vpand 0x316d8(%rip),%ymm3,%ymm1 # 33780 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
+ DB 197,229,219,13,120,125,2,0 ; vpand 0x27d78(%rip),%ymm3,%ymm1 # 29e20 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
DB 196,65,61,118,192 ; vpcmpeqd %ymm8,%ymm8,%ymm8
DB 76,139,64,8 ; mov 0x8(%rax),%r8
DB 76,139,72,16 ; mov 0x10(%rax),%r9
@@ -2020,16 +2020,16 @@ _sk_load_tables_hsw LABEL PROC
DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
DB 196,194,53,146,4,136 ; vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- DB 196,98,101,0,13,207,22,3,0 ; vpshufb 0x316cf(%rip),%ymm3,%ymm9 # 337a0 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
+ DB 196,98,101,0,13,111,125,2,0 ; vpshufb 0x27d6f(%rip),%ymm3,%ymm9 # 29e40 <_sk_srcover_rgba_8888_sse2_lowp+0x388>
DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
DB 196,130,45,146,12,137 ; vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
DB 72,139,64,24 ; mov 0x18(%rax),%rax
- DB 196,98,101,0,13,211,22,3,0 ; vpshufb 0x316d3(%rip),%ymm3,%ymm9 # 337c0 <_sk_srcover_rgba_8888_sse2_lowp+0x38c>
+ DB 196,98,101,0,13,115,125,2,0 ; vpshufb 0x27d73(%rip),%ymm3,%ymm9 # 29e60 <_sk_srcover_rgba_8888_sse2_lowp+0x3a8>
DB 196,162,61,146,20,136 ; vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
DB 197,229,114,211,24 ; vpsrld $0x18,%ymm3,%ymm3
DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,23,32,3,0 ; vbroadcastss 0x32017(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,87,130,2,0 ; vbroadcastss 0x28257(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -2108,7 +2108,7 @@ _sk_load_tables_u16_be_hsw LABEL PROC
DB 197,185,108,200 ; vpunpcklqdq %xmm0,%xmm8,%xmm1
DB 197,57,109,192 ; vpunpckhqdq %xmm0,%xmm8,%xmm8
DB 196,65,49,108,214 ; vpunpcklqdq %xmm14,%xmm9,%xmm10
- DB 197,121,111,29,32,32,3,0 ; vmovdqa 0x32020(%rip),%xmm11 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,121,111,29,64,130,2,0 ; vmovdqa 0x28240(%rip),%xmm11 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,193,113,219,195 ; vpand %xmm11,%xmm1,%xmm0
DB 196,226,125,51,200 ; vpmovzxwd %xmm0,%ymm1
DB 196,65,29,118,228 ; vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -2133,7 +2133,7 @@ _sk_load_tables_u16_be_hsw LABEL PROC
DB 197,185,235,219 ; vpor %xmm3,%xmm8,%xmm3
DB 196,226,125,51,219 ; vpmovzxwd %xmm3,%ymm3
DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,124,30,3,0 ; vbroadcastss 0x31e7c(%rip),%ymm8 # 34138 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ DB 196,98,125,24,5,188,128,2,0 ; vbroadcastss 0x280bc(%rip),%ymm8 # 2a378 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -2191,7 +2191,7 @@ _sk_load_tables_rgb_u16_be_hsw LABEL PROC
DB 197,105,108,192 ; vpunpcklqdq %xmm0,%xmm2,%xmm8
DB 197,241,108,195 ; vpunpcklqdq %xmm3,%xmm1,%xmm0
DB 197,241,109,203 ; vpunpckhqdq %xmm3,%xmm1,%xmm1
- DB 197,249,111,29,160,30,3,0 ; vmovdqa 0x31ea0(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,249,111,29,192,128,2,0 ; vmovdqa 0x280c0(%rip),%xmm3 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 197,249,219,195 ; vpand %xmm3,%xmm0,%xmm0
DB 196,98,125,51,200 ; vpmovzxwd %xmm0,%ymm9
DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -2211,7 +2211,7 @@ _sk_load_tables_rgb_u16_be_hsw LABEL PROC
DB 196,226,125,51,219 ; vpmovzxwd %xmm3,%ymm3
DB 196,226,45,146,20,152 ; vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,137,28,3,0 ; vbroadcastss 0x31c89(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,201,126,2,0 ; vbroadcastss 0x27ec9(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 255,224 ; jmpq *%rax
DB 196,129,121,110,4,72 ; vmovd (%r8,%r9,2),%xmm0
DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
@@ -2278,7 +2278,7 @@ _sk_load_tables_rgb_u16_be_hsw LABEL PROC
PUBLIC _sk_byte_tables_hsw
_sk_byte_tables_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,126,27,3,0 ; vbroadcastss 0x31b7e(%rip),%ymm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,5,190,125,2,0 ; vbroadcastss 0x27dbe(%rip),%ymm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
DB 197,125,91,200 ; vcvtps2dq %ymm0,%ymm9
DB 196,65,249,126,200 ; vmovq %xmm9,%r8
@@ -2408,7 +2408,7 @@ _sk_byte_tables_hsw LABEL PROC
DB 67,15,182,4,17 ; movzbl (%r9,%r10,1),%eax
DB 196,194,125,49,193 ; vpmovzxbd %xmm9,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,76,25,3,0 ; vbroadcastss 0x3194c(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,140,123,2,0 ; vbroadcastss 0x27b8c(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
DB 196,226,125,49,201 ; vpmovzxbd %xmm1,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
@@ -2528,7 +2528,7 @@ _sk_byte_tables_rgb_hsw LABEL PROC
DB 67,15,182,4,17 ; movzbl (%r9,%r10,1),%eax
DB 196,194,125,49,193 ; vpmovzxbd %xmm9,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,32,23,3,0 ; vbroadcastss 0x31720(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,96,121,2,0 ; vbroadcastss 0x27960(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
DB 196,226,125,49,201 ; vpmovzxbd %xmm1,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
@@ -2621,33 +2621,33 @@ _sk_parametric_r_hsw LABEL PROC
DB 196,66,125,168,211 ; vfmadd213ps %ymm11,%ymm0,%ymm10
DB 196,226,125,24,0 ; vbroadcastss (%rax),%ymm0
DB 196,65,124,91,218 ; vcvtdq2ps %ymm10,%ymm11
- DB 196,98,125,24,37,6,22,3,0 ; vbroadcastss 0x31606(%rip),%ymm12 # 3413c <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
- DB 196,98,125,24,45,1,22,3,0 ; vbroadcastss 0x31601(%rip),%ymm13 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ DB 196,98,125,24,37,70,120,2,0 ; vbroadcastss 0x27846(%rip),%ymm12 # 2a37c <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ DB 196,98,125,24,45,65,120,2,0 ; vbroadcastss 0x27841(%rip),%ymm13 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
DB 196,65,44,84,213 ; vandps %ymm13,%ymm10,%ymm10
- DB 196,98,125,24,45,87,21,3,0 ; vbroadcastss 0x31557(%rip),%ymm13 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,45,151,119,2,0 ; vbroadcastss 0x27797(%rip),%ymm13 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,44,86,213 ; vorps %ymm13,%ymm10,%ymm10
- DB 196,98,125,24,45,233,21,3,0 ; vbroadcastss 0x315e9(%rip),%ymm13 # 34144 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ DB 196,98,125,24,45,41,120,2,0 ; vbroadcastss 0x27829(%rip),%ymm13 # 2a384 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
DB 196,66,37,184,236 ; vfmadd231ps %ymm12,%ymm11,%ymm13
- DB 196,98,125,24,29,223,21,3,0 ; vbroadcastss 0x315df(%rip),%ymm11 # 34148 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ DB 196,98,125,24,29,31,120,2,0 ; vbroadcastss 0x2781f(%rip),%ymm11 # 2a388 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
DB 196,66,45,172,221 ; vfnmadd213ps %ymm13,%ymm10,%ymm11
- DB 196,98,125,24,37,213,21,3,0 ; vbroadcastss 0x315d5(%rip),%ymm12 # 3414c <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 196,98,125,24,37,21,120,2,0 ; vbroadcastss 0x27815(%rip),%ymm12 # 2a38c <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,37,203,21,3,0 ; vbroadcastss 0x315cb(%rip),%ymm12 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ DB 196,98,125,24,37,11,120,2,0 ; vbroadcastss 0x2780b(%rip),%ymm12 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
DB 196,65,28,94,210 ; vdivps %ymm10,%ymm12,%ymm10
DB 196,65,36,92,210 ; vsubps %ymm10,%ymm11,%ymm10
DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
DB 196,99,125,8,208,1 ; vroundps $0x1,%ymm0,%ymm10
DB 196,65,124,92,210 ; vsubps %ymm10,%ymm0,%ymm10
- DB 196,98,125,24,29,172,21,3,0 ; vbroadcastss 0x315ac(%rip),%ymm11 # 34154 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ DB 196,98,125,24,29,236,119,2,0 ; vbroadcastss 0x277ec(%rip),%ymm11 # 2a394 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
DB 196,193,124,88,195 ; vaddps %ymm11,%ymm0,%ymm0
- DB 196,98,125,24,29,162,21,3,0 ; vbroadcastss 0x315a2(%rip),%ymm11 # 34158 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ DB 196,98,125,24,29,226,119,2,0 ; vbroadcastss 0x277e2(%rip),%ymm11 # 2a398 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
DB 196,98,45,172,216 ; vfnmadd213ps %ymm0,%ymm10,%ymm11
- DB 196,226,125,24,5,152,21,3,0 ; vbroadcastss 0x31598(%rip),%ymm0 # 3415c <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ DB 196,226,125,24,5,216,119,2,0 ; vbroadcastss 0x277d8(%rip),%ymm0 # 2a39c <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
DB 196,193,124,92,194 ; vsubps %ymm10,%ymm0,%ymm0
- DB 196,98,125,24,21,142,21,3,0 ; vbroadcastss 0x3158e(%rip),%ymm10 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ DB 196,98,125,24,21,206,119,2,0 ; vbroadcastss 0x277ce(%rip),%ymm10 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
DB 197,172,94,192 ; vdivps %ymm0,%ymm10,%ymm0
DB 197,164,88,192 ; vaddps %ymm0,%ymm11,%ymm0
- DB 196,98,125,24,21,129,21,3,0 ; vbroadcastss 0x31581(%rip),%ymm10 # 34164 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ DB 196,98,125,24,21,193,119,2,0 ; vbroadcastss 0x277c1(%rip),%ymm10 # 2a3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
DB 196,98,125,24,80,20 ; vbroadcastss 0x14(%rax),%ymm10
@@ -2655,7 +2655,7 @@ _sk_parametric_r_hsw LABEL PROC
DB 196,195,125,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm0,%ymm0
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,153,20,3,0 ; vbroadcastss 0x31499(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,217,118,2,0 ; vbroadcastss 0x276d9(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -2673,33 +2673,33 @@ _sk_parametric_g_hsw LABEL PROC
DB 196,66,117,168,211 ; vfmadd213ps %ymm11,%ymm1,%ymm10
DB 196,226,125,24,8 ; vbroadcastss (%rax),%ymm1
DB 196,65,124,91,218 ; vcvtdq2ps %ymm10,%ymm11
- DB 196,98,125,24,37,225,20,3,0 ; vbroadcastss 0x314e1(%rip),%ymm12 # 3413c <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
- DB 196,98,125,24,45,220,20,3,0 ; vbroadcastss 0x314dc(%rip),%ymm13 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ DB 196,98,125,24,37,33,119,2,0 ; vbroadcastss 0x27721(%rip),%ymm12 # 2a37c <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ DB 196,98,125,24,45,28,119,2,0 ; vbroadcastss 0x2771c(%rip),%ymm13 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
DB 196,65,44,84,213 ; vandps %ymm13,%ymm10,%ymm10
- DB 196,98,125,24,45,50,20,3,0 ; vbroadcastss 0x31432(%rip),%ymm13 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,45,114,118,2,0 ; vbroadcastss 0x27672(%rip),%ymm13 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,44,86,213 ; vorps %ymm13,%ymm10,%ymm10
- DB 196,98,125,24,45,196,20,3,0 ; vbroadcastss 0x314c4(%rip),%ymm13 # 34144 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ DB 196,98,125,24,45,4,119,2,0 ; vbroadcastss 0x27704(%rip),%ymm13 # 2a384 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
DB 196,66,37,184,236 ; vfmadd231ps %ymm12,%ymm11,%ymm13
- DB 196,98,125,24,29,186,20,3,0 ; vbroadcastss 0x314ba(%rip),%ymm11 # 34148 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ DB 196,98,125,24,29,250,118,2,0 ; vbroadcastss 0x276fa(%rip),%ymm11 # 2a388 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
DB 196,66,45,172,221 ; vfnmadd213ps %ymm13,%ymm10,%ymm11
- DB 196,98,125,24,37,176,20,3,0 ; vbroadcastss 0x314b0(%rip),%ymm12 # 3414c <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 196,98,125,24,37,240,118,2,0 ; vbroadcastss 0x276f0(%rip),%ymm12 # 2a38c <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,37,166,20,3,0 ; vbroadcastss 0x314a6(%rip),%ymm12 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ DB 196,98,125,24,37,230,118,2,0 ; vbroadcastss 0x276e6(%rip),%ymm12 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
DB 196,65,28,94,210 ; vdivps %ymm10,%ymm12,%ymm10
DB 196,65,36,92,210 ; vsubps %ymm10,%ymm11,%ymm10
DB 196,193,116,89,202 ; vmulps %ymm10,%ymm1,%ymm1
DB 196,99,125,8,209,1 ; vroundps $0x1,%ymm1,%ymm10
DB 196,65,116,92,210 ; vsubps %ymm10,%ymm1,%ymm10
- DB 196,98,125,24,29,135,20,3,0 ; vbroadcastss 0x31487(%rip),%ymm11 # 34154 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ DB 196,98,125,24,29,199,118,2,0 ; vbroadcastss 0x276c7(%rip),%ymm11 # 2a394 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 196,98,125,24,29,125,20,3,0 ; vbroadcastss 0x3147d(%rip),%ymm11 # 34158 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ DB 196,98,125,24,29,189,118,2,0 ; vbroadcastss 0x276bd(%rip),%ymm11 # 2a398 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
DB 196,98,45,172,217 ; vfnmadd213ps %ymm1,%ymm10,%ymm11
- DB 196,226,125,24,13,115,20,3,0 ; vbroadcastss 0x31473(%rip),%ymm1 # 3415c <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ DB 196,226,125,24,13,179,118,2,0 ; vbroadcastss 0x276b3(%rip),%ymm1 # 2a39c <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
DB 196,193,116,92,202 ; vsubps %ymm10,%ymm1,%ymm1
- DB 196,98,125,24,21,105,20,3,0 ; vbroadcastss 0x31469(%rip),%ymm10 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ DB 196,98,125,24,21,169,118,2,0 ; vbroadcastss 0x276a9(%rip),%ymm10 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
DB 197,172,94,201 ; vdivps %ymm1,%ymm10,%ymm1
DB 197,164,88,201 ; vaddps %ymm1,%ymm11,%ymm1
- DB 196,98,125,24,21,92,20,3,0 ; vbroadcastss 0x3145c(%rip),%ymm10 # 34164 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ DB 196,98,125,24,21,156,118,2,0 ; vbroadcastss 0x2769c(%rip),%ymm10 # 2a3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
DB 196,193,116,89,202 ; vmulps %ymm10,%ymm1,%ymm1
DB 197,253,91,201 ; vcvtps2dq %ymm1,%ymm1
DB 196,98,125,24,80,20 ; vbroadcastss 0x14(%rax),%ymm10
@@ -2707,7 +2707,7 @@ _sk_parametric_g_hsw LABEL PROC
DB 196,195,117,74,201,128 ; vblendvps %ymm8,%ymm9,%ymm1,%ymm1
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 196,193,116,95,200 ; vmaxps %ymm8,%ymm1,%ymm1
- DB 196,98,125,24,5,116,19,3,0 ; vbroadcastss 0x31374(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,180,117,2,0 ; vbroadcastss 0x275b4(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -2725,33 +2725,33 @@ _sk_parametric_b_hsw LABEL PROC
DB 196,66,109,168,211 ; vfmadd213ps %ymm11,%ymm2,%ymm10
DB 196,226,125,24,16 ; vbroadcastss (%rax),%ymm2
DB 196,65,124,91,218 ; vcvtdq2ps %ymm10,%ymm11
- DB 196,98,125,24,37,188,19,3,0 ; vbroadcastss 0x313bc(%rip),%ymm12 # 3413c <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
- DB 196,98,125,24,45,183,19,3,0 ; vbroadcastss 0x313b7(%rip),%ymm13 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ DB 196,98,125,24,37,252,117,2,0 ; vbroadcastss 0x275fc(%rip),%ymm12 # 2a37c <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ DB 196,98,125,24,45,247,117,2,0 ; vbroadcastss 0x275f7(%rip),%ymm13 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
DB 196,65,44,84,213 ; vandps %ymm13,%ymm10,%ymm10
- DB 196,98,125,24,45,13,19,3,0 ; vbroadcastss 0x3130d(%rip),%ymm13 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,45,77,117,2,0 ; vbroadcastss 0x2754d(%rip),%ymm13 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,44,86,213 ; vorps %ymm13,%ymm10,%ymm10
- DB 196,98,125,24,45,159,19,3,0 ; vbroadcastss 0x3139f(%rip),%ymm13 # 34144 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ DB 196,98,125,24,45,223,117,2,0 ; vbroadcastss 0x275df(%rip),%ymm13 # 2a384 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
DB 196,66,37,184,236 ; vfmadd231ps %ymm12,%ymm11,%ymm13
- DB 196,98,125,24,29,149,19,3,0 ; vbroadcastss 0x31395(%rip),%ymm11 # 34148 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ DB 196,98,125,24,29,213,117,2,0 ; vbroadcastss 0x275d5(%rip),%ymm11 # 2a388 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
DB 196,66,45,172,221 ; vfnmadd213ps %ymm13,%ymm10,%ymm11
- DB 196,98,125,24,37,139,19,3,0 ; vbroadcastss 0x3138b(%rip),%ymm12 # 3414c <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 196,98,125,24,37,203,117,2,0 ; vbroadcastss 0x275cb(%rip),%ymm12 # 2a38c <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,37,129,19,3,0 ; vbroadcastss 0x31381(%rip),%ymm12 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ DB 196,98,125,24,37,193,117,2,0 ; vbroadcastss 0x275c1(%rip),%ymm12 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
DB 196,65,28,94,210 ; vdivps %ymm10,%ymm12,%ymm10
DB 196,65,36,92,210 ; vsubps %ymm10,%ymm11,%ymm10
DB 196,193,108,89,210 ; vmulps %ymm10,%ymm2,%ymm2
DB 196,99,125,8,210,1 ; vroundps $0x1,%ymm2,%ymm10
DB 196,65,108,92,210 ; vsubps %ymm10,%ymm2,%ymm10
- DB 196,98,125,24,29,98,19,3,0 ; vbroadcastss 0x31362(%rip),%ymm11 # 34154 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ DB 196,98,125,24,29,162,117,2,0 ; vbroadcastss 0x275a2(%rip),%ymm11 # 2a394 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
- DB 196,98,125,24,29,88,19,3,0 ; vbroadcastss 0x31358(%rip),%ymm11 # 34158 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ DB 196,98,125,24,29,152,117,2,0 ; vbroadcastss 0x27598(%rip),%ymm11 # 2a398 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
DB 196,98,45,172,218 ; vfnmadd213ps %ymm2,%ymm10,%ymm11
- DB 196,226,125,24,21,78,19,3,0 ; vbroadcastss 0x3134e(%rip),%ymm2 # 3415c <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ DB 196,226,125,24,21,142,117,2,0 ; vbroadcastss 0x2758e(%rip),%ymm2 # 2a39c <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
DB 196,193,108,92,210 ; vsubps %ymm10,%ymm2,%ymm2
- DB 196,98,125,24,21,68,19,3,0 ; vbroadcastss 0x31344(%rip),%ymm10 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ DB 196,98,125,24,21,132,117,2,0 ; vbroadcastss 0x27584(%rip),%ymm10 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
DB 197,172,94,210 ; vdivps %ymm2,%ymm10,%ymm2
DB 197,164,88,210 ; vaddps %ymm2,%ymm11,%ymm2
- DB 196,98,125,24,21,55,19,3,0 ; vbroadcastss 0x31337(%rip),%ymm10 # 34164 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ DB 196,98,125,24,21,119,117,2,0 ; vbroadcastss 0x27577(%rip),%ymm10 # 2a3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
DB 196,193,108,89,210 ; vmulps %ymm10,%ymm2,%ymm2
DB 197,253,91,210 ; vcvtps2dq %ymm2,%ymm2
DB 196,98,125,24,80,20 ; vbroadcastss 0x14(%rax),%ymm10
@@ -2759,7 +2759,7 @@ _sk_parametric_b_hsw LABEL PROC
DB 196,195,109,74,209,128 ; vblendvps %ymm8,%ymm9,%ymm2,%ymm2
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 196,193,108,95,208 ; vmaxps %ymm8,%ymm2,%ymm2
- DB 196,98,125,24,5,79,18,3,0 ; vbroadcastss 0x3124f(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,143,116,2,0 ; vbroadcastss 0x2748f(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -2777,33 +2777,33 @@ _sk_parametric_a_hsw LABEL PROC
DB 196,66,101,168,211 ; vfmadd213ps %ymm11,%ymm3,%ymm10
DB 196,226,125,24,24 ; vbroadcastss (%rax),%ymm3
DB 196,65,124,91,218 ; vcvtdq2ps %ymm10,%ymm11
- DB 196,98,125,24,37,151,18,3,0 ; vbroadcastss 0x31297(%rip),%ymm12 # 3413c <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
- DB 196,98,125,24,45,146,18,3,0 ; vbroadcastss 0x31292(%rip),%ymm13 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ DB 196,98,125,24,37,215,116,2,0 ; vbroadcastss 0x274d7(%rip),%ymm12 # 2a37c <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ DB 196,98,125,24,45,210,116,2,0 ; vbroadcastss 0x274d2(%rip),%ymm13 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
DB 196,65,44,84,213 ; vandps %ymm13,%ymm10,%ymm10
- DB 196,98,125,24,45,232,17,3,0 ; vbroadcastss 0x311e8(%rip),%ymm13 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,45,40,116,2,0 ; vbroadcastss 0x27428(%rip),%ymm13 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,44,86,213 ; vorps %ymm13,%ymm10,%ymm10
- DB 196,98,125,24,45,122,18,3,0 ; vbroadcastss 0x3127a(%rip),%ymm13 # 34144 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ DB 196,98,125,24,45,186,116,2,0 ; vbroadcastss 0x274ba(%rip),%ymm13 # 2a384 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
DB 196,66,37,184,236 ; vfmadd231ps %ymm12,%ymm11,%ymm13
- DB 196,98,125,24,29,112,18,3,0 ; vbroadcastss 0x31270(%rip),%ymm11 # 34148 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ DB 196,98,125,24,29,176,116,2,0 ; vbroadcastss 0x274b0(%rip),%ymm11 # 2a388 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
DB 196,66,45,172,221 ; vfnmadd213ps %ymm13,%ymm10,%ymm11
- DB 196,98,125,24,37,102,18,3,0 ; vbroadcastss 0x31266(%rip),%ymm12 # 3414c <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 196,98,125,24,37,166,116,2,0 ; vbroadcastss 0x274a6(%rip),%ymm12 # 2a38c <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,37,92,18,3,0 ; vbroadcastss 0x3125c(%rip),%ymm12 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ DB 196,98,125,24,37,156,116,2,0 ; vbroadcastss 0x2749c(%rip),%ymm12 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
DB 196,65,28,94,210 ; vdivps %ymm10,%ymm12,%ymm10
DB 196,65,36,92,210 ; vsubps %ymm10,%ymm11,%ymm10
DB 196,193,100,89,218 ; vmulps %ymm10,%ymm3,%ymm3
DB 196,99,125,8,211,1 ; vroundps $0x1,%ymm3,%ymm10
DB 196,65,100,92,210 ; vsubps %ymm10,%ymm3,%ymm10
- DB 196,98,125,24,29,61,18,3,0 ; vbroadcastss 0x3123d(%rip),%ymm11 # 34154 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ DB 196,98,125,24,29,125,116,2,0 ; vbroadcastss 0x2747d(%rip),%ymm11 # 2a394 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
DB 196,193,100,88,219 ; vaddps %ymm11,%ymm3,%ymm3
- DB 196,98,125,24,29,51,18,3,0 ; vbroadcastss 0x31233(%rip),%ymm11 # 34158 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ DB 196,98,125,24,29,115,116,2,0 ; vbroadcastss 0x27473(%rip),%ymm11 # 2a398 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
DB 196,98,45,172,219 ; vfnmadd213ps %ymm3,%ymm10,%ymm11
- DB 196,226,125,24,29,41,18,3,0 ; vbroadcastss 0x31229(%rip),%ymm3 # 3415c <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ DB 196,226,125,24,29,105,116,2,0 ; vbroadcastss 0x27469(%rip),%ymm3 # 2a39c <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
DB 196,193,100,92,218 ; vsubps %ymm10,%ymm3,%ymm3
- DB 196,98,125,24,21,31,18,3,0 ; vbroadcastss 0x3121f(%rip),%ymm10 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ DB 196,98,125,24,21,95,116,2,0 ; vbroadcastss 0x2745f(%rip),%ymm10 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
DB 197,172,94,219 ; vdivps %ymm3,%ymm10,%ymm3
DB 197,164,88,219 ; vaddps %ymm3,%ymm11,%ymm3
- DB 196,98,125,24,21,18,18,3,0 ; vbroadcastss 0x31212(%rip),%ymm10 # 34164 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ DB 196,98,125,24,21,82,116,2,0 ; vbroadcastss 0x27452(%rip),%ymm10 # 2a3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
DB 196,193,100,89,218 ; vmulps %ymm10,%ymm3,%ymm3
DB 197,253,91,219 ; vcvtps2dq %ymm3,%ymm3
DB 196,98,125,24,80,20 ; vbroadcastss 0x14(%rax),%ymm10
@@ -2811,7 +2811,7 @@ _sk_parametric_a_hsw LABEL PROC
DB 196,195,101,74,217,128 ; vblendvps %ymm8,%ymm9,%ymm3,%ymm3
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 196,193,100,95,216 ; vmaxps %ymm8,%ymm3,%ymm3
- DB 196,98,125,24,5,42,17,3,0 ; vbroadcastss 0x3112a(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,106,115,2,0 ; vbroadcastss 0x2736a(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -2828,35 +2828,35 @@ _sk_gamma_hsw LABEL PROC
DB 197,252,40,241 ; vmovaps %ymm1,%ymm6
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,124,91,208 ; vcvtdq2ps %ymm0,%ymm10
- DB 196,98,125,24,29,119,17,3,0 ; vbroadcastss 0x31177(%rip),%ymm11 # 3413c <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
- DB 196,226,125,24,45,114,17,3,0 ; vbroadcastss 0x31172(%rip),%ymm5 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ DB 196,98,125,24,29,183,115,2,0 ; vbroadcastss 0x273b7(%rip),%ymm11 # 2a37c <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ DB 196,226,125,24,45,178,115,2,0 ; vbroadcastss 0x273b2(%rip),%ymm5 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
DB 197,124,84,205 ; vandps %ymm5,%ymm0,%ymm9
- DB 196,226,125,24,37,201,16,3,0 ; vbroadcastss 0x310c9(%rip),%ymm4 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,226,125,24,37,9,115,2,0 ; vbroadcastss 0x27309(%rip),%ymm4 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,52,86,228 ; vorps %ymm4,%ymm9,%ymm12
- DB 196,98,125,24,45,92,17,3,0 ; vbroadcastss 0x3115c(%rip),%ymm13 # 34144 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ DB 196,98,125,24,45,156,115,2,0 ; vbroadcastss 0x2739c(%rip),%ymm13 # 2a384 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
DB 196,66,37,168,213 ; vfmadd213ps %ymm13,%ymm11,%ymm10
- DB 196,98,125,24,13,82,17,3,0 ; vbroadcastss 0x31152(%rip),%ymm9 # 34148 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ DB 196,98,125,24,13,146,115,2,0 ; vbroadcastss 0x27392(%rip),%ymm9 # 2a388 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
DB 196,66,29,188,209 ; vfnmadd231ps %ymm9,%ymm12,%ymm10
DB 197,124,91,246 ; vcvtdq2ps %ymm6,%ymm14
DB 196,66,37,168,245 ; vfmadd213ps %ymm13,%ymm11,%ymm14
DB 197,124,91,255 ; vcvtdq2ps %ymm7,%ymm15
DB 196,66,37,168,253 ; vfmadd213ps %ymm13,%ymm11,%ymm15
- DB 196,98,125,24,29,54,17,3,0 ; vbroadcastss 0x31136(%rip),%ymm11 # 3414c <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 196,98,125,24,29,118,115,2,0 ; vbroadcastss 0x27376(%rip),%ymm11 # 2a38c <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
DB 196,65,28,88,227 ; vaddps %ymm11,%ymm12,%ymm12
- DB 196,98,125,24,45,44,17,3,0 ; vbroadcastss 0x3112c(%rip),%ymm13 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ DB 196,98,125,24,45,108,115,2,0 ; vbroadcastss 0x2736c(%rip),%ymm13 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
DB 196,65,20,94,228 ; vdivps %ymm12,%ymm13,%ymm12
DB 196,65,44,92,212 ; vsubps %ymm12,%ymm10,%ymm10
DB 196,98,125,24,32 ; vbroadcastss (%rax),%ymm12
DB 196,65,44,89,212 ; vmulps %ymm12,%ymm10,%ymm10
DB 196,67,125,8,194,1 ; vroundps $0x1,%ymm10,%ymm8
DB 196,65,44,92,192 ; vsubps %ymm8,%ymm10,%ymm8
- DB 196,226,125,24,21,8,17,3,0 ; vbroadcastss 0x31108(%rip),%ymm2 # 34154 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ DB 196,226,125,24,21,72,115,2,0 ; vbroadcastss 0x27348(%rip),%ymm2 # 2a394 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
DB 197,44,88,210 ; vaddps %ymm2,%ymm10,%ymm10
- DB 196,226,125,24,29,255,16,3,0 ; vbroadcastss 0x310ff(%rip),%ymm3 # 34158 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ DB 196,226,125,24,29,63,115,2,0 ; vbroadcastss 0x2733f(%rip),%ymm3 # 2a398 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
DB 196,98,61,188,211 ; vfnmadd231ps %ymm3,%ymm8,%ymm10
- DB 196,226,125,24,13,245,16,3,0 ; vbroadcastss 0x310f5(%rip),%ymm1 # 3415c <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ DB 196,226,125,24,13,53,115,2,0 ; vbroadcastss 0x27335(%rip),%ymm1 # 2a39c <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
DB 196,65,116,92,192 ; vsubps %ymm8,%ymm1,%ymm8
- DB 196,226,125,24,5,235,16,3,0 ; vbroadcastss 0x310eb(%rip),%ymm0 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ DB 196,226,125,24,5,43,115,2,0 ; vbroadcastss 0x2732b(%rip),%ymm0 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
DB 196,65,124,94,192 ; vdivps %ymm8,%ymm0,%ymm8
DB 196,65,44,88,192 ; vaddps %ymm8,%ymm10,%ymm8
DB 197,204,84,245 ; vandps %ymm5,%ymm6,%ymm6
@@ -2887,7 +2887,7 @@ _sk_gamma_hsw LABEL PROC
DB 197,244,92,205 ; vsubps %ymm5,%ymm1,%ymm1
DB 197,252,94,193 ; vdivps %ymm1,%ymm0,%ymm0
DB 197,236,88,192 ; vaddps %ymm0,%ymm2,%ymm0
- DB 196,226,125,24,13,92,16,3,0 ; vbroadcastss 0x3105c(%rip),%ymm1 # 34164 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ DB 196,226,125,24,13,156,114,2,0 ; vbroadcastss 0x2729c(%rip),%ymm1 # 2a3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
DB 197,188,89,209 ; vmulps %ymm1,%ymm8,%ymm2
DB 197,204,89,217 ; vmulps %ymm1,%ymm6,%ymm3
DB 197,252,89,225 ; vmulps %ymm1,%ymm0,%ymm4
@@ -2905,26 +2905,26 @@ _sk_gamma_hsw LABEL PROC
PUBLIC _sk_lab_to_xyz_hsw
_sk_lab_to_xyz_hsw LABEL PROC
- DB 196,98,125,24,5,20,16,3,0 ; vbroadcastss 0x31014(%rip),%ymm8 # 34168 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- DB 196,98,125,24,13,119,15,3,0 ; vbroadcastss 0x30f77(%rip),%ymm9 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 196,98,125,24,21,6,16,3,0 ; vbroadcastss 0x31006(%rip),%ymm10 # 3416c <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ DB 196,98,125,24,5,84,114,2,0 ; vbroadcastss 0x27254(%rip),%ymm8 # 2a3a8 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ DB 196,98,125,24,13,183,113,2,0 ; vbroadcastss 0x271b7(%rip),%ymm9 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ DB 196,98,125,24,21,70,114,2,0 ; vbroadcastss 0x27246(%rip),%ymm10 # 2a3ac <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
DB 196,194,53,168,202 ; vfmadd213ps %ymm10,%ymm9,%ymm1
DB 196,194,53,168,210 ; vfmadd213ps %ymm10,%ymm9,%ymm2
- DB 196,98,125,24,13,247,15,3,0 ; vbroadcastss 0x30ff7(%rip),%ymm9 # 34170 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ DB 196,98,125,24,13,55,114,2,0 ; vbroadcastss 0x27237(%rip),%ymm9 # 2a3b0 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
DB 196,66,125,184,200 ; vfmadd231ps %ymm8,%ymm0,%ymm9
- DB 196,226,125,24,5,237,15,3,0 ; vbroadcastss 0x30fed(%rip),%ymm0 # 34174 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ DB 196,226,125,24,5,45,114,2,0 ; vbroadcastss 0x2722d(%rip),%ymm0 # 2a3b4 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 196,98,125,24,5,228,15,3,0 ; vbroadcastss 0x30fe4(%rip),%ymm8 # 34178 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ DB 196,98,125,24,5,36,114,2,0 ; vbroadcastss 0x27224(%rip),%ymm8 # 2a3b8 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
DB 196,98,117,168,192 ; vfmadd213ps %ymm0,%ymm1,%ymm8
- DB 196,98,125,24,13,218,15,3,0 ; vbroadcastss 0x30fda(%rip),%ymm9 # 3417c <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ DB 196,98,125,24,13,26,114,2,0 ; vbroadcastss 0x2721a(%rip),%ymm9 # 2a3bc <_sk_srcover_rgba_8888_sse2_lowp+0x904>
DB 196,98,109,172,200 ; vfnmadd213ps %ymm0,%ymm2,%ymm9
DB 196,193,60,89,200 ; vmulps %ymm8,%ymm8,%ymm1
DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 196,226,125,24,21,199,15,3,0 ; vbroadcastss 0x30fc7(%rip),%ymm2 # 34180 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
+ DB 196,226,125,24,21,7,114,2,0 ; vbroadcastss 0x27207(%rip),%ymm2 # 2a3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
DB 197,108,194,209,1 ; vcmpltps %ymm1,%ymm2,%ymm10
- DB 196,98,125,24,29,189,15,3,0 ; vbroadcastss 0x30fbd(%rip),%ymm11 # 34184 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ DB 196,98,125,24,29,253,113,2,0 ; vbroadcastss 0x271fd(%rip),%ymm11 # 2a3c4 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
DB 196,65,60,88,195 ; vaddps %ymm11,%ymm8,%ymm8
- DB 196,98,125,24,37,179,15,3,0 ; vbroadcastss 0x30fb3(%rip),%ymm12 # 34188 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ DB 196,98,125,24,37,243,113,2,0 ; vbroadcastss 0x271f3(%rip),%ymm12 # 2a3c8 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
DB 196,65,60,89,196 ; vmulps %ymm12,%ymm8,%ymm8
DB 196,99,61,74,193,160 ; vblendvps %ymm10,%ymm1,%ymm8,%ymm8
DB 197,252,89,200 ; vmulps %ymm0,%ymm0,%ymm1
@@ -2939,9 +2939,9 @@ _sk_lab_to_xyz_hsw LABEL PROC
DB 196,65,52,88,203 ; vaddps %ymm11,%ymm9,%ymm9
DB 196,65,52,89,204 ; vmulps %ymm12,%ymm9,%ymm9
DB 196,227,53,74,208,32 ; vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- DB 196,226,125,24,5,104,15,3,0 ; vbroadcastss 0x30f68(%rip),%ymm0 # 3418c <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
+ DB 196,226,125,24,5,168,113,2,0 ; vbroadcastss 0x271a8(%rip),%ymm0 # 2a3cc <_sk_srcover_rgba_8888_sse2_lowp+0x914>
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,95,15,3,0 ; vbroadcastss 0x30f5f(%rip),%ymm8 # 34190 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
+ DB 196,98,125,24,5,159,113,2,0 ; vbroadcastss 0x2719f(%rip),%ymm8 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -2957,10 +2957,10 @@ _sk_load_a8_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,52 ; jne 3286 <_sk_load_a8_hsw+0x4c>
DB 196,130,121,48,4,24 ; vpmovzxbw (%r8,%r11,1),%xmm0
- DB 197,249,219,5,0,16,3,0 ; vpand 0x31000(%rip),%xmm0,%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,249,219,5,32,114,2,0 ; vpand 0x27220(%rip),%xmm0,%xmm0 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,226,125,51,192 ; vpmovzxwd %xmm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,170,14,3,0 ; vbroadcastss 0x30eaa(%rip),%ymm1 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,13,234,112,2,0 ; vbroadcastss 0x270ea(%rip),%ymm1 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,252,89,217 ; vmulps %ymm1,%ymm0,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
@@ -3031,10 +3031,10 @@ _sk_load_a8_dst_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,52 ; jne 3384 <_sk_load_a8_dst_hsw+0x4c>
DB 196,130,121,48,36,24 ; vpmovzxbw (%r8,%r11,1),%xmm4
- DB 197,217,219,37,2,15,3,0 ; vpand 0x30f02(%rip),%xmm4,%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,217,219,37,34,113,2,0 ; vpand 0x27122(%rip),%xmm4,%xmm4 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,226,125,51,228 ; vpmovzxwd %xmm4,%ymm4
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,172,13,3,0 ; vbroadcastss 0x30dac(%rip),%ymm5 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,45,236,111,2,0 ; vbroadcastss 0x26fec(%rip),%ymm5 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,220,89,253 ; vmulps %ymm5,%ymm4,%ymm7
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
@@ -3082,7 +3082,7 @@ _sk_load_a8_dst_hsw LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde00342c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfcfff8>
+ DB 232,255,255,255,221 ; callq ffffffffde00342c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd9974>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,210 ; callq *%rdx
@@ -3137,7 +3137,7 @@ _sk_gather_a8_hsw LABEL PROC
DB 196,227,121,32,192,7 ; vpinsrb $0x7,%eax,%xmm0,%xmm0
DB 196,226,125,49,192 ; vpmovzxbd %xmm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,32,12,3,0 ; vbroadcastss 0x30c20(%rip),%ymm1 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,13,96,110,2,0 ; vbroadcastss 0x26e60(%rip),%ymm1 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,252,89,217 ; vmulps %ymm1,%ymm0,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
@@ -3157,7 +3157,7 @@ _sk_store_a8_hsw LABEL PROC
DB 77,15,175,193 ; imul %r9,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,218 ; movslq %edx,%r11
- DB 196,98,125,24,5,161,11,3,0 ; vbroadcastss 0x30ba1(%rip),%ymm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,5,225,109,2,0 ; vbroadcastss 0x26de1(%rip),%ymm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,65,100,89,192 ; vmulps %ymm8,%ymm3,%ymm8
DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
@@ -3182,13 +3182,13 @@ _sk_store_a8_hsw LABEL PROC
DB 196,3,121,20,4,24,0 ; vpextrb $0x0,%xmm8,(%r8,%r11,1)
DB 235,202 ; jmp 3557 <_sk_store_a8_hsw+0x40>
DB 196,3,121,20,68,24,2,4 ; vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- DB 196,98,57,0,5,210,12,3,0 ; vpshufb 0x30cd2(%rip),%xmm8,%xmm8 # 34270 <_sk_srcover_rgba_8888_sse2_lowp+0xe3c>
+ DB 196,98,57,0,5,242,110,2,0 ; vpshufb 0x26ef2(%rip),%xmm8,%xmm8 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
DB 196,3,121,21,4,24,0 ; vpextrw $0x0,%xmm8,(%r8,%r11,1)
DB 235,176 ; jmp 3557 <_sk_store_a8_hsw+0x40>
DB 196,3,121,20,68,24,6,12 ; vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
DB 196,3,121,20,68,24,5,10 ; vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
DB 196,3,121,20,68,24,4,8 ; vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- DB 196,98,57,0,5,184,12,3,0 ; vpshufb 0x30cb8(%rip),%xmm8,%xmm8 # 34280 <_sk_srcover_rgba_8888_sse2_lowp+0xe4c>
+ DB 196,98,57,0,5,216,110,2,0 ; vpshufb 0x26ed8(%rip),%xmm8,%xmm8 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
DB 196,1,121,126,4,24 ; vmovd %xmm8,(%r8,%r11,1)
DB 235,135 ; jmp 3557 <_sk_store_a8_hsw+0x40>
DB 180,255 ; mov $0xff,%ah
@@ -3222,13 +3222,13 @@ _sk_load_g8_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,57 ; jne 363d <_sk_load_g8_hsw+0x51>
DB 196,130,121,48,4,24 ; vpmovzxbw (%r8,%r11,1),%xmm0
- DB 197,249,219,5,78,12,3,0 ; vpand 0x30c4e(%rip),%xmm0,%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,249,219,5,110,110,2,0 ; vpand 0x26e6e(%rip),%xmm0,%xmm0 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,226,125,51,192 ; vpmovzxwd %xmm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,248,10,3,0 ; vbroadcastss 0x30af8(%rip),%ymm1 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,13,56,109,2,0 ; vbroadcastss 0x26d38(%rip),%ymm1 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,117,10,3,0 ; vbroadcastss 0x30a75(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,181,108,2,0 ; vbroadcastss 0x26cb5(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
DB 255,224 ; jmpq *%rax
@@ -3273,7 +3273,7 @@ _sk_load_g8_hsw LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 233,255,255,255,222 ; jmpq ffffffffdf0036e4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd02b0>
+ DB 233,255,255,255,222 ; jmpq ffffffffdf0036e4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd9c2c>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,211 ; callq *%rbx
@@ -3295,13 +3295,13 @@ _sk_load_g8_dst_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,57 ; jne 3741 <_sk_load_g8_dst_hsw+0x51>
DB 196,130,121,48,36,24 ; vpmovzxbw (%r8,%r11,1),%xmm4
- DB 197,217,219,37,74,11,3,0 ; vpand 0x30b4a(%rip),%xmm4,%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,217,219,37,106,109,2,0 ; vpand 0x26d6a(%rip),%xmm4,%xmm4 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,226,125,51,228 ; vpmovzxwd %xmm4,%ymm4
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,244,9,3,0 ; vbroadcastss 0x309f4(%rip),%ymm5 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,45,52,108,2,0 ; vbroadcastss 0x26c34(%rip),%ymm5 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,61,113,9,3,0 ; vbroadcastss 0x30971(%rip),%ymm7 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,61,177,107,2,0 ; vbroadcastss 0x26bb1(%rip),%ymm7 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,40,236 ; vmovaps %ymm4,%ymm5
DB 197,252,40,244 ; vmovaps %ymm4,%ymm6
DB 255,224 ; jmpq *%rax
@@ -3346,7 +3346,7 @@ _sk_load_g8_dst_hsw LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 233,255,255,255,222 ; jmpq ffffffffdf0037e8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd03b4>
+ DB 233,255,255,255,222 ; jmpq ffffffffdf0037e8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd9d30>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,211 ; callq *%rbx
@@ -3401,10 +3401,10 @@ _sk_gather_g8_hsw LABEL PROC
DB 196,227,121,32,192,7 ; vpinsrb $0x7,%eax,%xmm0,%xmm0
DB 196,226,125,49,192 ; vpmovzxbd %xmm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,100,8,3,0 ; vbroadcastss 0x30864(%rip),%ymm1 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,13,164,106,2,0 ; vbroadcastss 0x26aa4(%rip),%ymm1 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,225,7,3,0 ; vbroadcastss 0x307e1(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,33,106,2,0 ; vbroadcastss 0x26a21(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
DB 91 ; pop %rbx
@@ -3426,23 +3426,23 @@ _sk_load_565_hsw LABEL PROC
DB 117,114 ; jne 3965 <_sk_load_565_hsw+0x8d>
DB 196,129,122,111,4,88 ; vmovdqu (%r8,%r11,2),%xmm0
DB 196,226,125,51,208 ; vpmovzxwd %xmm0,%ymm2
- DB 196,226,125,88,5,25,8,3,0 ; vpbroadcastd 0x30819(%rip),%ymm0 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ DB 196,226,125,88,5,89,106,2,0 ; vpbroadcastd 0x26a59(%rip),%ymm0 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
DB 197,237,219,192 ; vpand %ymm0,%ymm2,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,12,8,3,0 ; vbroadcastss 0x3080c(%rip),%ymm1 # 34124 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ DB 196,226,125,24,13,76,106,2,0 ; vbroadcastss 0x26a4c(%rip),%ymm1 # 2a364 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,88,13,3,8,3,0 ; vpbroadcastd 0x30803(%rip),%ymm1 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ DB 196,226,125,88,13,67,106,2,0 ; vpbroadcastd 0x26a43(%rip),%ymm1 # 2a368 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
DB 197,237,219,201 ; vpand %ymm1,%ymm2,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,29,246,7,3,0 ; vbroadcastss 0x307f6(%rip),%ymm3 # 3412c <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 196,226,125,24,29,54,106,2,0 ; vbroadcastss 0x26a36(%rip),%ymm3 # 2a36c <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 196,226,125,88,29,237,7,3,0 ; vpbroadcastd 0x307ed(%rip),%ymm3 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ DB 196,226,125,88,29,45,106,2,0 ; vpbroadcastd 0x26a2d(%rip),%ymm3 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
DB 197,237,219,211 ; vpand %ymm3,%ymm2,%ymm2
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,226,125,24,29,224,7,3,0 ; vbroadcastss 0x307e0(%rip),%ymm3 # 34134 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ DB 196,226,125,24,29,32,106,2,0 ; vbroadcastss 0x26a20(%rip),%ymm3 # 2a374 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,69,7,3,0 ; vbroadcastss 0x30745(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,133,105,2,0 ; vbroadcastss 0x26985(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
DB 65,128,225,7 ; and $0x7,%r9b
@@ -3506,23 +3506,23 @@ _sk_load_565_dst_hsw LABEL PROC
DB 117,114 ; jne 3a91 <_sk_load_565_dst_hsw+0x8d>
DB 196,129,122,111,36,88 ; vmovdqu (%r8,%r11,2),%xmm4
DB 196,226,125,51,244 ; vpmovzxwd %xmm4,%ymm6
- DB 196,226,125,88,37,237,6,3,0 ; vpbroadcastd 0x306ed(%rip),%ymm4 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ DB 196,226,125,88,37,45,105,2,0 ; vpbroadcastd 0x2692d(%rip),%ymm4 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
DB 197,205,219,228 ; vpand %ymm4,%ymm6,%ymm4
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,224,6,3,0 ; vbroadcastss 0x306e0(%rip),%ymm5 # 34124 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ DB 196,226,125,24,45,32,105,2,0 ; vbroadcastss 0x26920(%rip),%ymm5 # 2a364 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
- DB 196,226,125,88,45,215,6,3,0 ; vpbroadcastd 0x306d7(%rip),%ymm5 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ DB 196,226,125,88,45,23,105,2,0 ; vpbroadcastd 0x26917(%rip),%ymm5 # 2a368 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
DB 197,205,219,237 ; vpand %ymm5,%ymm6,%ymm5
DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,226,125,24,61,202,6,3,0 ; vbroadcastss 0x306ca(%rip),%ymm7 # 3412c <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 196,226,125,24,61,10,105,2,0 ; vbroadcastss 0x2690a(%rip),%ymm7 # 2a36c <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
DB 197,212,89,239 ; vmulps %ymm7,%ymm5,%ymm5
- DB 196,226,125,88,61,193,6,3,0 ; vpbroadcastd 0x306c1(%rip),%ymm7 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ DB 196,226,125,88,61,1,105,2,0 ; vpbroadcastd 0x26901(%rip),%ymm7 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
DB 197,205,219,247 ; vpand %ymm7,%ymm6,%ymm6
DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,226,125,24,61,180,6,3,0 ; vbroadcastss 0x306b4(%rip),%ymm7 # 34134 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ DB 196,226,125,24,61,244,104,2,0 ; vbroadcastss 0x268f4(%rip),%ymm7 # 2a374 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
DB 197,204,89,247 ; vmulps %ymm7,%ymm6,%ymm6
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,61,25,6,3,0 ; vbroadcastss 0x30619(%rip),%ymm7 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,61,89,104,2,0 ; vbroadcastss 0x26859(%rip),%ymm7 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
DB 65,128,225,7 ; and $0x7,%r9b
@@ -3616,23 +3616,23 @@ _sk_gather_565_hsw LABEL PROC
DB 65,15,183,4,88 ; movzwl (%r8,%rbx,2),%eax
DB 197,249,196,192,7 ; vpinsrw $0x7,%eax,%xmm0,%xmm0
DB 196,226,125,51,208 ; vpmovzxwd %xmm0,%ymm2
- DB 196,226,125,88,5,53,5,3,0 ; vpbroadcastd 0x30535(%rip),%ymm0 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ DB 196,226,125,88,5,117,103,2,0 ; vpbroadcastd 0x26775(%rip),%ymm0 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
DB 197,237,219,192 ; vpand %ymm0,%ymm2,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,40,5,3,0 ; vbroadcastss 0x30528(%rip),%ymm1 # 34124 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ DB 196,226,125,24,13,104,103,2,0 ; vbroadcastss 0x26768(%rip),%ymm1 # 2a364 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,88,13,31,5,3,0 ; vpbroadcastd 0x3051f(%rip),%ymm1 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ DB 196,226,125,88,13,95,103,2,0 ; vpbroadcastd 0x2675f(%rip),%ymm1 # 2a368 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
DB 197,237,219,201 ; vpand %ymm1,%ymm2,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,29,18,5,3,0 ; vbroadcastss 0x30512(%rip),%ymm3 # 3412c <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 196,226,125,24,29,82,103,2,0 ; vbroadcastss 0x26752(%rip),%ymm3 # 2a36c <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 196,226,125,88,29,9,5,3,0 ; vpbroadcastd 0x30509(%rip),%ymm3 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ DB 196,226,125,88,29,73,103,2,0 ; vpbroadcastd 0x26749(%rip),%ymm3 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
DB 197,237,219,211 ; vpand %ymm3,%ymm2,%ymm2
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,226,125,24,29,252,4,3,0 ; vbroadcastss 0x304fc(%rip),%ymm3 # 34134 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ DB 196,226,125,24,29,60,103,2,0 ; vbroadcastss 0x2673c(%rip),%ymm3 # 2a374 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,97,4,3,0 ; vbroadcastss 0x30461(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,161,102,2,0 ; vbroadcastss 0x266a1(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 91 ; pop %rbx
DB 65,92 ; pop %r12
DB 65,94 ; pop %r14
@@ -3648,11 +3648,11 @@ _sk_store_565_hsw LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,218 ; movslq %edx,%r11
- DB 196,98,125,24,5,37,5,3,0 ; vbroadcastss 0x30525(%rip),%ymm8 # 34194 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ DB 196,98,125,24,5,101,103,2,0 ; vbroadcastss 0x26765(%rip),%ymm8 # 2a3d4 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
DB 196,193,53,114,241,11 ; vpslld $0xb,%ymm9,%ymm9
- DB 196,98,125,24,21,16,5,3,0 ; vbroadcastss 0x30510(%rip),%ymm10 # 34198 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ DB 196,98,125,24,21,80,103,2,0 ; vbroadcastss 0x26750(%rip),%ymm10 # 2a3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
DB 196,65,116,89,210 ; vmulps %ymm10,%ymm1,%ymm10
DB 196,65,125,91,210 ; vcvtps2dq %ymm10,%ymm10
DB 196,193,45,114,242,5 ; vpslld $0x5,%ymm10,%ymm10
@@ -3725,25 +3725,25 @@ _sk_load_4444_hsw LABEL PROC
DB 15,133,138,0,0,0 ; jne 3de9 <_sk_load_4444_hsw+0xa9>
DB 196,129,122,111,4,88 ; vmovdqu (%r8,%r11,2),%xmm0
DB 196,226,125,51,216 ; vpmovzxwd %xmm0,%ymm3
- DB 196,226,125,88,5,41,4,3,0 ; vpbroadcastd 0x30429(%rip),%ymm0 # 3419c <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
+ DB 196,226,125,88,5,105,102,2,0 ; vpbroadcastd 0x26669(%rip),%ymm0 # 2a3dc <_sk_srcover_rgba_8888_sse2_lowp+0x924>
DB 197,229,219,192 ; vpand %ymm0,%ymm3,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,28,4,3,0 ; vbroadcastss 0x3041c(%rip),%ymm1 # 341a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
+ DB 196,226,125,24,13,92,102,2,0 ; vbroadcastss 0x2665c(%rip),%ymm1 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,88,13,19,4,3,0 ; vpbroadcastd 0x30413(%rip),%ymm1 # 341a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ DB 196,226,125,88,13,83,102,2,0 ; vpbroadcastd 0x26653(%rip),%ymm1 # 2a3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
DB 197,229,219,201 ; vpand %ymm1,%ymm3,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,6,4,3,0 ; vbroadcastss 0x30406(%rip),%ymm2 # 341a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ DB 196,226,125,24,21,70,102,2,0 ; vbroadcastss 0x26646(%rip),%ymm2 # 2a3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
DB 197,244,89,202 ; vmulps %ymm2,%ymm1,%ymm1
- DB 196,226,125,88,21,253,3,3,0 ; vpbroadcastd 0x303fd(%rip),%ymm2 # 341ac <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
+ DB 196,226,125,88,21,61,102,2,0 ; vpbroadcastd 0x2663d(%rip),%ymm2 # 2a3ec <_sk_srcover_rgba_8888_sse2_lowp+0x934>
DB 197,229,219,210 ; vpand %ymm2,%ymm3,%ymm2
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,98,125,24,5,240,3,3,0 ; vbroadcastss 0x303f0(%rip),%ymm8 # 341b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd7c>
+ DB 196,98,125,24,5,48,102,2,0 ; vbroadcastss 0x26630(%rip),%ymm8 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,98,125,88,5,230,3,3,0 ; vpbroadcastd 0x303e6(%rip),%ymm8 # 341b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ DB 196,98,125,88,5,38,102,2,0 ; vpbroadcastd 0x26626(%rip),%ymm8 # 2a3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
DB 196,193,101,219,216 ; vpand %ymm8,%ymm3,%ymm3
DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,216,3,3,0 ; vbroadcastss 0x303d8(%rip),%ymm8 # 341b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ DB 196,98,125,24,5,24,102,2,0 ; vbroadcastss 0x26618(%rip),%ymm8 # 2a3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -3809,25 +3809,25 @@ _sk_load_4444_dst_hsw LABEL PROC
DB 15,133,138,0,0,0 ; jne 3f35 <_sk_load_4444_dst_hsw+0xa9>
DB 196,129,122,111,36,88 ; vmovdqu (%r8,%r11,2),%xmm4
DB 196,226,125,51,252 ; vpmovzxwd %xmm4,%ymm7
- DB 196,226,125,88,37,221,2,3,0 ; vpbroadcastd 0x302dd(%rip),%ymm4 # 3419c <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
+ DB 196,226,125,88,37,29,101,2,0 ; vpbroadcastd 0x2651d(%rip),%ymm4 # 2a3dc <_sk_srcover_rgba_8888_sse2_lowp+0x924>
DB 197,197,219,228 ; vpand %ymm4,%ymm7,%ymm4
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,208,2,3,0 ; vbroadcastss 0x302d0(%rip),%ymm5 # 341a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
+ DB 196,226,125,24,45,16,101,2,0 ; vbroadcastss 0x26510(%rip),%ymm5 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
- DB 196,226,125,88,45,199,2,3,0 ; vpbroadcastd 0x302c7(%rip),%ymm5 # 341a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ DB 196,226,125,88,45,7,101,2,0 ; vpbroadcastd 0x26507(%rip),%ymm5 # 2a3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
DB 197,197,219,237 ; vpand %ymm5,%ymm7,%ymm5
DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,226,125,24,53,186,2,3,0 ; vbroadcastss 0x302ba(%rip),%ymm6 # 341a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ DB 196,226,125,24,53,250,100,2,0 ; vbroadcastss 0x264fa(%rip),%ymm6 # 2a3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
DB 197,212,89,238 ; vmulps %ymm6,%ymm5,%ymm5
- DB 196,226,125,88,53,177,2,3,0 ; vpbroadcastd 0x302b1(%rip),%ymm6 # 341ac <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
+ DB 196,226,125,88,53,241,100,2,0 ; vpbroadcastd 0x264f1(%rip),%ymm6 # 2a3ec <_sk_srcover_rgba_8888_sse2_lowp+0x934>
DB 197,197,219,246 ; vpand %ymm6,%ymm7,%ymm6
DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,98,125,24,5,164,2,3,0 ; vbroadcastss 0x302a4(%rip),%ymm8 # 341b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd7c>
+ DB 196,98,125,24,5,228,100,2,0 ; vbroadcastss 0x264e4(%rip),%ymm8 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
DB 196,193,76,89,240 ; vmulps %ymm8,%ymm6,%ymm6
- DB 196,98,125,88,5,154,2,3,0 ; vpbroadcastd 0x3029a(%rip),%ymm8 # 341b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ DB 196,98,125,88,5,218,100,2,0 ; vpbroadcastd 0x264da(%rip),%ymm8 # 2a3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
DB 196,193,69,219,248 ; vpand %ymm8,%ymm7,%ymm7
DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,5,140,2,3,0 ; vbroadcastss 0x3028c(%rip),%ymm8 # 341b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ DB 196,98,125,24,5,204,100,2,0 ; vbroadcastss 0x264cc(%rip),%ymm8 # 2a3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
DB 196,193,68,89,248 ; vmulps %ymm8,%ymm7,%ymm7
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -3923,25 +3923,25 @@ _sk_gather_4444_hsw LABEL PROC
DB 65,15,183,4,88 ; movzwl (%r8,%rbx,2),%eax
DB 197,249,196,192,7 ; vpinsrw $0x7,%eax,%xmm0,%xmm0
DB 196,226,125,51,216 ; vpmovzxwd %xmm0,%ymm3
- DB 196,226,125,88,5,9,1,3,0 ; vpbroadcastd 0x30109(%rip),%ymm0 # 3419c <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
+ DB 196,226,125,88,5,73,99,2,0 ; vpbroadcastd 0x26349(%rip),%ymm0 # 2a3dc <_sk_srcover_rgba_8888_sse2_lowp+0x924>
DB 197,229,219,192 ; vpand %ymm0,%ymm3,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,252,0,3,0 ; vbroadcastss 0x300fc(%rip),%ymm1 # 341a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
+ DB 196,226,125,24,13,60,99,2,0 ; vbroadcastss 0x2633c(%rip),%ymm1 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,88,13,243,0,3,0 ; vpbroadcastd 0x300f3(%rip),%ymm1 # 341a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ DB 196,226,125,88,13,51,99,2,0 ; vpbroadcastd 0x26333(%rip),%ymm1 # 2a3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
DB 197,229,219,201 ; vpand %ymm1,%ymm3,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,230,0,3,0 ; vbroadcastss 0x300e6(%rip),%ymm2 # 341a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ DB 196,226,125,24,21,38,99,2,0 ; vbroadcastss 0x26326(%rip),%ymm2 # 2a3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
DB 197,244,89,202 ; vmulps %ymm2,%ymm1,%ymm1
- DB 196,226,125,88,21,221,0,3,0 ; vpbroadcastd 0x300dd(%rip),%ymm2 # 341ac <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
+ DB 196,226,125,88,21,29,99,2,0 ; vpbroadcastd 0x2631d(%rip),%ymm2 # 2a3ec <_sk_srcover_rgba_8888_sse2_lowp+0x934>
DB 197,229,219,210 ; vpand %ymm2,%ymm3,%ymm2
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,98,125,24,5,208,0,3,0 ; vbroadcastss 0x300d0(%rip),%ymm8 # 341b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd7c>
+ DB 196,98,125,24,5,16,99,2,0 ; vbroadcastss 0x26310(%rip),%ymm8 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,98,125,88,5,198,0,3,0 ; vpbroadcastd 0x300c6(%rip),%ymm8 # 341b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ DB 196,98,125,88,5,6,99,2,0 ; vpbroadcastd 0x26306(%rip),%ymm8 # 2a3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
DB 196,193,101,219,216 ; vpand %ymm8,%ymm3,%ymm3
DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,184,0,3,0 ; vbroadcastss 0x300b8(%rip),%ymm8 # 341b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ DB 196,98,125,24,5,248,98,2,0 ; vbroadcastss 0x262f8(%rip),%ymm8 # 2a3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 91 ; pop %rbx
@@ -3959,7 +3959,7 @@ _sk_store_4444_hsw LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,218 ; movslq %edx,%r11
- DB 196,98,125,24,5,141,0,3,0 ; vbroadcastss 0x3008d(%rip),%ymm8 # 341bc <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ DB 196,98,125,24,5,205,98,2,0 ; vbroadcastss 0x262cd(%rip),%ymm8 # 2a3fc <_sk_srcover_rgba_8888_sse2_lowp+0x944>
DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
DB 196,193,53,114,241,12 ; vpslld $0xc,%ymm9,%ymm9
@@ -4038,14 +4038,14 @@ _sk_load_8888_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,86 ; jne 427e <_sk_load_8888_hsw+0x72>
DB 196,129,126,111,28,152 ; vmovdqu (%r8,%r11,4),%ymm3
- DB 197,229,219,5,170,245,2,0 ; vpand 0x2f5aa(%rip),%ymm3,%ymm0 # 337e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3ac>
+ DB 197,229,219,5,74,92,2,0 ; vpand 0x25c4a(%rip),%ymm3,%ymm0 # 29e80 <_sk_srcover_rgba_8888_sse2_lowp+0x3c8>
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,217,254,2,0 ; vbroadcastss 0x2fed9(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,25,97,2,0 ; vbroadcastss 0x26119(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,226,101,0,13,175,245,2,0 ; vpshufb 0x2f5af(%rip),%ymm3,%ymm1 # 33800 <_sk_srcover_rgba_8888_sse2_lowp+0x3cc>
+ DB 196,226,101,0,13,79,92,2,0 ; vpshufb 0x25c4f(%rip),%ymm3,%ymm1 # 29ea0 <_sk_srcover_rgba_8888_sse2_lowp+0x3e8>
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,226,101,0,21,189,245,2,0 ; vpshufb 0x2f5bd(%rip),%ymm3,%ymm2 # 33820 <_sk_srcover_rgba_8888_sse2_lowp+0x3ec>
+ DB 196,226,101,0,21,93,92,2,0 ; vpshufb 0x25c5d(%rip),%ymm3,%ymm2 # 29ec0 <_sk_srcover_rgba_8888_sse2_lowp+0x408>
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
DB 197,229,114,211,24 ; vpsrld $0x18,%ymm3,%ymm3
@@ -4119,14 +4119,14 @@ _sk_load_8888_dst_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,86 ; jne 43b2 <_sk_load_8888_dst_hsw+0x72>
DB 196,129,126,111,60,152 ; vmovdqu (%r8,%r11,4),%ymm7
- DB 197,197,219,37,214,244,2,0 ; vpand 0x2f4d6(%rip),%ymm7,%ymm4 # 33840 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
+ DB 197,197,219,37,118,91,2,0 ; vpand 0x25b76(%rip),%ymm7,%ymm4 # 29ee0 <_sk_srcover_rgba_8888_sse2_lowp+0x428>
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,98,125,24,5,165,253,2,0 ; vbroadcastss 0x2fda5(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,229,95,2,0 ; vbroadcastss 0x25fe5(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,92,89,224 ; vmulps %ymm8,%ymm4,%ymm4
- DB 196,226,69,0,45,219,244,2,0 ; vpshufb 0x2f4db(%rip),%ymm7,%ymm5 # 33860 <_sk_srcover_rgba_8888_sse2_lowp+0x42c>
+ DB 196,226,69,0,45,123,91,2,0 ; vpshufb 0x25b7b(%rip),%ymm7,%ymm5 # 29f00 <_sk_srcover_rgba_8888_sse2_lowp+0x448>
DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
DB 196,193,84,89,232 ; vmulps %ymm8,%ymm5,%ymm5
- DB 196,226,69,0,53,233,244,2,0 ; vpshufb 0x2f4e9(%rip),%ymm7,%ymm6 # 33880 <_sk_srcover_rgba_8888_sse2_lowp+0x44c>
+ DB 196,226,69,0,53,137,91,2,0 ; vpshufb 0x25b89(%rip),%ymm7,%ymm6 # 29f20 <_sk_srcover_rgba_8888_sse2_lowp+0x468>
DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
DB 196,193,76,89,240 ; vmulps %ymm8,%ymm6,%ymm6
DB 197,197,114,215,24 ; vpsrld $0x18,%ymm7,%ymm7
@@ -4200,14 +4200,14 @@ _sk_gather_8888_hsw LABEL PROC
DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
DB 196,194,117,144,28,128 ; vpgatherdd %ymm1,(%r8,%ymm0,4),%ymm3
- DB 197,229,219,5,250,243,2,0 ; vpand 0x2f3fa(%rip),%ymm3,%ymm0 # 338a0 <_sk_srcover_rgba_8888_sse2_lowp+0x46c>
+ DB 197,229,219,5,154,90,2,0 ; vpand 0x25a9a(%rip),%ymm3,%ymm0 # 29f40 <_sk_srcover_rgba_8888_sse2_lowp+0x488>
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,105,252,2,0 ; vbroadcastss 0x2fc69(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,169,94,2,0 ; vbroadcastss 0x25ea9(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,226,101,0,13,255,243,2,0 ; vpshufb 0x2f3ff(%rip),%ymm3,%ymm1 # 338c0 <_sk_srcover_rgba_8888_sse2_lowp+0x48c>
+ DB 196,226,101,0,13,159,90,2,0 ; vpshufb 0x25a9f(%rip),%ymm3,%ymm1 # 29f60 <_sk_srcover_rgba_8888_sse2_lowp+0x4a8>
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,226,101,0,21,13,244,2,0 ; vpshufb 0x2f40d(%rip),%ymm3,%ymm2 # 338e0 <_sk_srcover_rgba_8888_sse2_lowp+0x4ac>
+ DB 196,226,101,0,21,173,90,2,0 ; vpshufb 0x25aad(%rip),%ymm3,%ymm2 # 29f80 <_sk_srcover_rgba_8888_sse2_lowp+0x4c8>
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
DB 197,229,114,211,24 ; vpsrld $0x18,%ymm3,%ymm3
@@ -4225,7 +4225,7 @@ _sk_store_8888_hsw LABEL PROC
DB 73,193,224,2 ; shl $0x2,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,218 ; movslq %edx,%r11
- DB 196,98,125,24,5,198,251,2,0 ; vbroadcastss 0x2fbc6(%rip),%ymm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,5,6,94,2,0 ; vbroadcastss 0x25e06(%rip),%ymm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
DB 196,65,116,89,208 ; vmulps %ymm8,%ymm1,%ymm10
@@ -4302,14 +4302,14 @@ _sk_load_bgra_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,86 ; jne 4662 <_sk_load_bgra_hsw+0x72>
DB 196,129,126,111,28,152 ; vmovdqu (%r8,%r11,4),%ymm3
- DB 197,229,219,5,230,242,2,0 ; vpand 0x2f2e6(%rip),%ymm3,%ymm0 # 33900 <_sk_srcover_rgba_8888_sse2_lowp+0x4cc>
+ DB 197,229,219,5,134,89,2,0 ; vpand 0x25986(%rip),%ymm3,%ymm0 # 29fa0 <_sk_srcover_rgba_8888_sse2_lowp+0x4e8>
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,245,250,2,0 ; vbroadcastss 0x2faf5(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,53,93,2,0 ; vbroadcastss 0x25d35(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,208 ; vmulps %ymm8,%ymm0,%ymm2
- DB 196,226,101,0,5,235,242,2,0 ; vpshufb 0x2f2eb(%rip),%ymm3,%ymm0 # 33920 <_sk_srcover_rgba_8888_sse2_lowp+0x4ec>
+ DB 196,226,101,0,5,139,89,2,0 ; vpshufb 0x2598b(%rip),%ymm3,%ymm0 # 29fc0 <_sk_srcover_rgba_8888_sse2_lowp+0x508>
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
DB 196,193,124,89,200 ; vmulps %ymm8,%ymm0,%ymm1
- DB 196,226,101,0,5,249,242,2,0 ; vpshufb 0x2f2f9(%rip),%ymm3,%ymm0 # 33940 <_sk_srcover_rgba_8888_sse2_lowp+0x50c>
+ DB 196,226,101,0,5,153,89,2,0 ; vpshufb 0x25999(%rip),%ymm3,%ymm0 # 29fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x528>
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
DB 197,229,114,211,24 ; vpsrld $0x18,%ymm3,%ymm3
@@ -4383,14 +4383,14 @@ _sk_load_bgra_dst_hsw LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,86 ; jne 4796 <_sk_load_bgra_dst_hsw+0x72>
DB 196,129,126,111,60,152 ; vmovdqu (%r8,%r11,4),%ymm7
- DB 197,197,219,37,18,242,2,0 ; vpand 0x2f212(%rip),%ymm7,%ymm4 # 33960 <_sk_srcover_rgba_8888_sse2_lowp+0x52c>
+ DB 197,197,219,37,178,88,2,0 ; vpand 0x258b2(%rip),%ymm7,%ymm4 # 2a000 <_sk_srcover_rgba_8888_sse2_lowp+0x548>
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,98,125,24,5,193,249,2,0 ; vbroadcastss 0x2f9c1(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,1,92,2,0 ; vbroadcastss 0x25c01(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,92,89,240 ; vmulps %ymm8,%ymm4,%ymm6
- DB 196,226,69,0,37,23,242,2,0 ; vpshufb 0x2f217(%rip),%ymm7,%ymm4 # 33980 <_sk_srcover_rgba_8888_sse2_lowp+0x54c>
+ DB 196,226,69,0,37,183,88,2,0 ; vpshufb 0x258b7(%rip),%ymm7,%ymm4 # 2a020 <_sk_srcover_rgba_8888_sse2_lowp+0x568>
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
DB 196,193,92,89,232 ; vmulps %ymm8,%ymm4,%ymm5
- DB 196,226,69,0,37,37,242,2,0 ; vpshufb 0x2f225(%rip),%ymm7,%ymm4 # 339a0 <_sk_srcover_rgba_8888_sse2_lowp+0x56c>
+ DB 196,226,69,0,37,197,88,2,0 ; vpshufb 0x258c5(%rip),%ymm7,%ymm4 # 2a040 <_sk_srcover_rgba_8888_sse2_lowp+0x588>
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
DB 196,193,92,89,224 ; vmulps %ymm8,%ymm4,%ymm4
DB 197,197,114,215,24 ; vpsrld $0x18,%ymm7,%ymm7
@@ -4464,14 +4464,14 @@ _sk_gather_bgra_hsw LABEL PROC
DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
DB 196,194,117,144,28,128 ; vpgatherdd %ymm1,(%r8,%ymm0,4),%ymm3
- DB 197,229,219,5,54,241,2,0 ; vpand 0x2f136(%rip),%ymm3,%ymm0 # 339c0 <_sk_srcover_rgba_8888_sse2_lowp+0x58c>
+ DB 197,229,219,5,214,87,2,0 ; vpand 0x257d6(%rip),%ymm3,%ymm0 # 2a060 <_sk_srcover_rgba_8888_sse2_lowp+0x5a8>
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,133,248,2,0 ; vbroadcastss 0x2f885(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,197,90,2,0 ; vbroadcastss 0x25ac5(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,208 ; vmulps %ymm8,%ymm0,%ymm2
- DB 196,226,101,0,5,59,241,2,0 ; vpshufb 0x2f13b(%rip),%ymm3,%ymm0 # 339e0 <_sk_srcover_rgba_8888_sse2_lowp+0x5ac>
+ DB 196,226,101,0,5,219,87,2,0 ; vpshufb 0x257db(%rip),%ymm3,%ymm0 # 2a080 <_sk_srcover_rgba_8888_sse2_lowp+0x5c8>
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
DB 196,193,124,89,200 ; vmulps %ymm8,%ymm0,%ymm1
- DB 196,226,101,0,5,73,241,2,0 ; vpshufb 0x2f149(%rip),%ymm3,%ymm0 # 33a00 <_sk_srcover_rgba_8888_sse2_lowp+0x5cc>
+ DB 196,226,101,0,5,233,87,2,0 ; vpshufb 0x257e9(%rip),%ymm3,%ymm0 # 2a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0x5e8>
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
DB 197,229,114,211,24 ; vpsrld $0x18,%ymm3,%ymm3
@@ -4489,7 +4489,7 @@ _sk_store_bgra_hsw LABEL PROC
DB 73,193,224,2 ; shl $0x2,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,218 ; movslq %edx,%r11
- DB 196,98,125,24,5,226,247,2,0 ; vbroadcastss 0x2f7e2(%rip),%ymm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,5,34,90,2,0 ; vbroadcastss 0x25a22(%rip),%ymm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,65,108,89,200 ; vmulps %ymm8,%ymm2,%ymm9
DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
DB 196,65,116,89,208 ; vmulps %ymm8,%ymm1,%ymm10
@@ -4789,7 +4789,7 @@ _sk_load_u16_be_hsw LABEL PROC
DB 197,241,235,192 ; vpor %xmm0,%xmm1,%xmm0
DB 196,226,125,51,192 ; vpmovzxwd %xmm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,21,134,243,2,0 ; vbroadcastss 0x2f386(%rip),%ymm10 # 34138 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ DB 196,98,125,24,21,198,85,2,0 ; vbroadcastss 0x255c6(%rip),%ymm10 # 2a378 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
DB 197,185,109,202 ; vpunpckhqdq %xmm2,%xmm8,%xmm1
DB 197,233,113,241,8 ; vpsllw $0x8,%xmm1,%xmm2
@@ -4879,7 +4879,7 @@ _sk_load_rgb_u16_be_hsw LABEL PROC
DB 197,241,235,192 ; vpor %xmm0,%xmm1,%xmm0
DB 196,226,125,51,192 ; vpmovzxwd %xmm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,245,241,2,0 ; vbroadcastss 0x2f1f5(%rip),%ymm9 # 34138 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ DB 196,98,125,24,13,53,84,2,0 ; vbroadcastss 0x25435(%rip),%ymm9 # 2a378 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
DB 197,185,109,203 ; vpunpckhqdq %xmm3,%xmm8,%xmm1
DB 197,225,113,241,8 ; vpsllw $0x8,%xmm1,%xmm3
@@ -4895,7 +4895,7 @@ _sk_load_rgb_u16_be_hsw LABEL PROC
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,25,241,2,0 ; vbroadcastss 0x2f119(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,89,83,2,0 ; vbroadcastss 0x25359(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 255,224 ; jmpq *%rax
DB 196,193,121,110,4,64 ; vmovd (%r8,%rax,2),%xmm0
DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
@@ -4969,7 +4969,7 @@ _sk_store_u16_be_hsw LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 73,99,193 ; movslq %r9d,%rax
- DB 196,98,125,24,5,222,240,2,0 ; vbroadcastss 0x2f0de(%rip),%ymm8 # 341c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd8c>
+ DB 196,98,125,24,5,30,83,2,0 ; vbroadcastss 0x2531e(%rip),%ymm8 # 2a400 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
DB 196,67,125,25,202,1 ; vextractf128 $0x1,%ymm9,%xmm10
@@ -5125,7 +5125,7 @@ _sk_load_f32_hsw LABEL PROC
DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
DB 255,70,255 ; incl -0x1(%rsi)
DB 255 ; (bad)
- DB 255,53,255,255,255,40 ; pushq 0x28ffffff(%rip) # 290053b4 <_sk_srcover_rgba_8888_sse2_lowp+0x28fd1f80>
+ DB 255,53,255,255,255,40 ; pushq 0x28ffffff(%rip) # 290053b4 <_sk_srcover_rgba_8888_sse2_lowp+0x28fdb8fc>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; .byte 0xff
@@ -5222,7 +5222,7 @@ _sk_load_f32_dst_hsw LABEL PROC
DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
DB 255,70,255 ; incl -0x1(%rsi)
DB 255 ; (bad)
- DB 255,53,255,255,255,40 ; pushq 0x28ffffff(%rip) # 29005558 <_sk_srcover_rgba_8888_sse2_lowp+0x28fd2124>
+ DB 255,53,255,255,255,40 ; pushq 0x28ffffff(%rip) # 29005558 <_sk_srcover_rgba_8888_sse2_lowp+0x28fdbaa0>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; .byte 0xff
@@ -5341,7 +5341,7 @@ _sk_mirror_x_hsw LABEL PROC
DB 196,65,124,92,218 ; vsubps %ymm10,%ymm0,%ymm11
DB 196,193,58,88,192 ; vaddss %xmm8,%xmm8,%xmm0
DB 196,98,125,24,192 ; vbroadcastss %xmm0,%ymm8
- DB 197,178,89,5,155,233,2,0 ; vmulss 0x2e99b(%rip),%xmm9,%xmm0 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 197,178,89,5,219,75,2,0 ; vmulss 0x24bdb(%rip),%xmm9,%xmm0 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,226,125,24,192 ; vbroadcastss %xmm0,%ymm0
DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
DB 196,227,125,8,192,1 ; vroundps $0x1,%ymm0,%ymm0
@@ -5366,7 +5366,7 @@ _sk_mirror_y_hsw LABEL PROC
DB 196,65,116,92,218 ; vsubps %ymm10,%ymm1,%ymm11
DB 196,193,58,88,200 ; vaddss %xmm8,%xmm8,%xmm1
DB 196,98,125,24,193 ; vbroadcastss %xmm1,%ymm8
- DB 197,178,89,13,55,233,2,0 ; vmulss 0x2e937(%rip),%xmm9,%xmm1 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 197,178,89,13,119,75,2,0 ; vmulss 0x24b77(%rip),%xmm9,%xmm1 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,226,125,24,201 ; vbroadcastss %xmm1,%ymm1
DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
DB 196,227,125,8,201,1 ; vroundps $0x1,%ymm1,%ymm1
@@ -5386,7 +5386,7 @@ PUBLIC _sk_clamp_x_1_hsw
_sk_clamp_x_1_hsw LABEL PROC
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,236,232,2,0 ; vbroadcastss 0x2e8ec(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,44,75,2,0 ; vbroadcastss 0x24b2c(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -5400,9 +5400,9 @@ _sk_repeat_x_1_hsw LABEL PROC
PUBLIC _sk_mirror_x_1_hsw
_sk_mirror_x_1_hsw LABEL PROC
- DB 196,98,125,24,5,227,232,2,0 ; vbroadcastss 0x2e8e3(%rip),%ymm8 # 340c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ DB 196,98,125,24,5,35,75,2,0 ; vbroadcastss 0x24b23(%rip),%ymm8 # 2a300 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,13,185,232,2,0 ; vbroadcastss 0x2e8b9(%rip),%ymm9 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,13,249,74,2,0 ; vbroadcastss 0x24af9(%rip),%ymm9 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,124,89,201 ; vmulps %ymm9,%ymm0,%ymm9
DB 196,67,125,8,201,1 ; vroundps $0x1,%ymm9,%ymm9
DB 196,65,52,88,201 ; vaddps %ymm9,%ymm9,%ymm9
@@ -5416,11 +5416,11 @@ _sk_mirror_x_1_hsw LABEL PROC
PUBLIC _sk_luminance_to_alpha_hsw
_sk_luminance_to_alpha_hsw LABEL PROC
- DB 196,226,125,24,29,165,233,2,0 ; vbroadcastss 0x2e9a5(%rip),%ymm3 # 341c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
- DB 196,98,125,24,5,160,233,2,0 ; vbroadcastss 0x2e9a0(%rip),%ymm8 # 341c8 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ DB 196,226,125,24,29,229,75,2,0 ; vbroadcastss 0x24be5(%rip),%ymm3 # 2a404 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ DB 196,98,125,24,5,224,75,2,0 ; vbroadcastss 0x24be0(%rip),%ymm8 # 2a408 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
DB 196,226,125,184,203 ; vfmadd231ps %ymm3,%ymm0,%ymm1
- DB 196,226,125,24,29,145,233,2,0 ; vbroadcastss 0x2e991(%rip),%ymm3 # 341cc <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
+ DB 196,226,125,24,29,209,75,2,0 ; vbroadcastss 0x24bd1(%rip),%ymm3 # 2a40c <_sk_srcover_rgba_8888_sse2_lowp+0x954>
DB 196,226,109,168,217 ; vfmadd213ps %ymm1,%ymm2,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
@@ -5674,14 +5674,14 @@ _sk_evenly_spaced_gradient_hsw LABEL PROC
PUBLIC _sk_gauss_a_to_rgba_hsw
_sk_gauss_a_to_rgba_hsw LABEL PROC
- DB 196,226,125,24,5,115,229,2,0 ; vbroadcastss 0x2e573(%rip),%ymm0 # 341d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd9c>
- DB 196,226,125,24,13,110,229,2,0 ; vbroadcastss 0x2e56e(%rip),%ymm1 # 341d4 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ DB 196,226,125,24,5,179,71,2,0 ; vbroadcastss 0x247b3(%rip),%ymm0 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ DB 196,226,125,24,13,174,71,2,0 ; vbroadcastss 0x247ae(%rip),%ymm1 # 2a414 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
DB 196,226,101,168,200 ; vfmadd213ps %ymm0,%ymm3,%ymm1
- DB 196,226,125,24,5,100,229,2,0 ; vbroadcastss 0x2e564(%rip),%ymm0 # 341d8 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ DB 196,226,125,24,5,164,71,2,0 ; vbroadcastss 0x247a4(%rip),%ymm0 # 2a418 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
DB 196,226,101,184,193 ; vfmadd231ps %ymm1,%ymm3,%ymm0
- DB 196,226,125,24,13,90,229,2,0 ; vbroadcastss 0x2e55a(%rip),%ymm1 # 341dc <_sk_srcover_rgba_8888_sse2_lowp+0xda8>
+ DB 196,226,125,24,13,154,71,2,0 ; vbroadcastss 0x2479a(%rip),%ymm1 # 2a41c <_sk_srcover_rgba_8888_sse2_lowp+0x964>
DB 196,226,101,184,200 ; vfmadd231ps %ymm0,%ymm3,%ymm1
- DB 196,226,125,24,5,80,229,2,0 ; vbroadcastss 0x2e550(%rip),%ymm0 # 341e0 <_sk_srcover_rgba_8888_sse2_lowp+0xdac>
+ DB 196,226,125,24,5,144,71,2,0 ; vbroadcastss 0x24790(%rip),%ymm0 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
DB 196,226,101,184,193 ; vfmadd231ps %ymm1,%ymm3,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
@@ -5698,7 +5698,7 @@ _sk_gradient_hsw LABEL PROC
DB 76,139,72,72 ; mov 0x48(%rax),%r9
DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
DB 65,186,1,0,0,0 ; mov $0x1,%r10d
- DB 196,226,125,24,21,225,227,2,0 ; vbroadcastss 0x2e3e1(%rip),%ymm2 # 340ac <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 196,226,125,24,21,33,70,2,0 ; vbroadcastss 0x24621(%rip),%ymm2 # 2a2ec <_sk_srcover_rgba_8888_sse2_lowp+0x834>
DB 196,65,53,239,201 ; vpxor %ymm9,%ymm9,%ymm9
DB 196,130,125,24,28,145 ; vbroadcastss (%r9,%r10,4),%ymm3
DB 197,228,194,216,2 ; vcmpleps %ymm0,%ymm3,%ymm3
@@ -5797,24 +5797,24 @@ _sk_xy_to_unit_angle_hsw LABEL PROC
DB 196,65,52,95,226 ; vmaxps %ymm10,%ymm9,%ymm12
DB 196,65,36,94,220 ; vdivps %ymm12,%ymm11,%ymm11
DB 196,65,36,89,227 ; vmulps %ymm11,%ymm11,%ymm12
- DB 196,98,125,24,45,108,227,2,0 ; vbroadcastss 0x2e36c(%rip),%ymm13 # 341e4 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
- DB 196,98,125,24,53,103,227,2,0 ; vbroadcastss 0x2e367(%rip),%ymm14 # 341e8 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ DB 196,98,125,24,45,172,69,2,0 ; vbroadcastss 0x245ac(%rip),%ymm13 # 2a424 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ DB 196,98,125,24,53,167,69,2,0 ; vbroadcastss 0x245a7(%rip),%ymm14 # 2a428 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
DB 196,66,29,184,245 ; vfmadd231ps %ymm13,%ymm12,%ymm14
- DB 196,98,125,24,45,93,227,2,0 ; vbroadcastss 0x2e35d(%rip),%ymm13 # 341ec <_sk_srcover_rgba_8888_sse2_lowp+0xdb8>
+ DB 196,98,125,24,45,157,69,2,0 ; vbroadcastss 0x2459d(%rip),%ymm13 # 2a42c <_sk_srcover_rgba_8888_sse2_lowp+0x974>
DB 196,66,29,184,238 ; vfmadd231ps %ymm14,%ymm12,%ymm13
- DB 196,98,125,24,53,83,227,2,0 ; vbroadcastss 0x2e353(%rip),%ymm14 # 341f0 <_sk_srcover_rgba_8888_sse2_lowp+0xdbc>
+ DB 196,98,125,24,53,147,69,2,0 ; vbroadcastss 0x24593(%rip),%ymm14 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
DB 196,66,29,184,245 ; vfmadd231ps %ymm13,%ymm12,%ymm14
DB 196,65,36,89,222 ; vmulps %ymm14,%ymm11,%ymm11
DB 196,65,52,194,202,1 ; vcmpltps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,21,62,227,2,0 ; vbroadcastss 0x2e33e(%rip),%ymm10 # 341f4 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ DB 196,98,125,24,21,126,69,2,0 ; vbroadcastss 0x2457e(%rip),%ymm10 # 2a434 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
DB 196,65,44,92,211 ; vsubps %ymm11,%ymm10,%ymm10
DB 196,67,37,74,202,144 ; vblendvps %ymm9,%ymm10,%ymm11,%ymm9
DB 196,193,124,194,192,1 ; vcmpltps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,21,212,225,2,0 ; vbroadcastss 0x2e1d4(%rip),%ymm10 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,21,20,68,2,0 ; vbroadcastss 0x24414(%rip),%ymm10 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,44,92,209 ; vsubps %ymm9,%ymm10,%ymm10
DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
DB 196,65,116,194,200,1 ; vcmpltps %ymm8,%ymm1,%ymm9
- DB 196,98,125,24,21,190,225,2,0 ; vbroadcastss 0x2e1be(%rip),%ymm10 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,21,254,67,2,0 ; vbroadcastss 0x243fe(%rip),%ymm10 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,44,92,208 ; vsubps %ymm0,%ymm10,%ymm10
DB 196,195,125,74,194,144 ; vblendvps %ymm9,%ymm10,%ymm0,%ymm0
DB 196,65,124,194,200,3 ; vcmpunordps %ymm8,%ymm0,%ymm9
@@ -5838,23 +5838,23 @@ _sk_xy_to_2pt_conical_quadratic_max_hsw LABEL PROC
DB 197,50,89,80,44 ; vmulss 0x2c(%rax),%xmm9,%xmm10
DB 196,66,125,24,210 ; vbroadcastss %xmm10,%ymm10
DB 197,44,88,208 ; vaddps %ymm0,%ymm10,%ymm10
- DB 196,98,125,24,29,190,226,2,0 ; vbroadcastss 0x2e2be(%rip),%ymm11 # 341f8 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ DB 196,98,125,24,29,254,68,2,0 ; vbroadcastss 0x244fe(%rip),%ymm11 # 2a438 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
DB 197,116,89,217 ; vmulps %ymm1,%ymm1,%ymm11
DB 196,98,125,184,216 ; vfmadd231ps %ymm0,%ymm0,%ymm11
DB 196,193,50,89,193 ; vmulss %xmm9,%xmm9,%xmm0
DB 196,226,125,24,192 ; vbroadcastss %xmm0,%ymm0
DB 197,164,92,192 ; vsubps %ymm0,%ymm11,%ymm0
- DB 196,98,125,24,13,157,226,2,0 ; vbroadcastss 0x2e29d(%rip),%ymm9 # 341fc <_sk_srcover_rgba_8888_sse2_lowp+0xdc8>
+ DB 196,98,125,24,13,221,68,2,0 ; vbroadcastss 0x244dd(%rip),%ymm9 # 2a43c <_sk_srcover_rgba_8888_sse2_lowp+0x984>
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
DB 196,194,45,184,194 ; vfmadd231ps %ymm10,%ymm10,%ymm0
DB 197,252,81,192 ; vsqrtps %ymm0,%ymm0
DB 196,98,125,24,64,36 ; vbroadcastss 0x24(%rax),%ymm8
- DB 196,98,125,24,13,128,226,2,0 ; vbroadcastss 0x2e280(%rip),%ymm9 # 34200 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
+ DB 196,98,125,24,13,192,68,2,0 ; vbroadcastss 0x244c0(%rip),%ymm9 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
DB 196,65,44,87,201 ; vxorps %ymm9,%ymm10,%ymm9
DB 196,65,124,92,210 ; vsubps %ymm10,%ymm0,%ymm10
- DB 196,98,125,24,29,17,225,2,0 ; vbroadcastss 0x2e111(%rip),%ymm11 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,29,81,67,2,0 ; vbroadcastss 0x24351(%rip),%ymm11 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
DB 196,65,44,89,208 ; vmulps %ymm8,%ymm10,%ymm10
DB 197,180,92,192 ; vsubps %ymm0,%ymm9,%ymm0
@@ -5871,23 +5871,23 @@ _sk_xy_to_2pt_conical_quadratic_min_hsw LABEL PROC
DB 197,50,89,80,44 ; vmulss 0x2c(%rax),%xmm9,%xmm10
DB 196,66,125,24,210 ; vbroadcastss %xmm10,%ymm10
DB 197,44,88,208 ; vaddps %ymm0,%ymm10,%ymm10
- DB 196,98,125,24,29,38,226,2,0 ; vbroadcastss 0x2e226(%rip),%ymm11 # 341f8 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ DB 196,98,125,24,29,102,68,2,0 ; vbroadcastss 0x24466(%rip),%ymm11 # 2a438 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
DB 197,116,89,217 ; vmulps %ymm1,%ymm1,%ymm11
DB 196,98,125,184,216 ; vfmadd231ps %ymm0,%ymm0,%ymm11
DB 196,193,50,89,193 ; vmulss %xmm9,%xmm9,%xmm0
DB 196,226,125,24,192 ; vbroadcastss %xmm0,%ymm0
DB 197,164,92,192 ; vsubps %ymm0,%ymm11,%ymm0
- DB 196,98,125,24,13,5,226,2,0 ; vbroadcastss 0x2e205(%rip),%ymm9 # 341fc <_sk_srcover_rgba_8888_sse2_lowp+0xdc8>
+ DB 196,98,125,24,13,69,68,2,0 ; vbroadcastss 0x24445(%rip),%ymm9 # 2a43c <_sk_srcover_rgba_8888_sse2_lowp+0x984>
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
DB 196,194,45,184,194 ; vfmadd231ps %ymm10,%ymm10,%ymm0
DB 197,252,81,192 ; vsqrtps %ymm0,%ymm0
DB 196,98,125,24,64,36 ; vbroadcastss 0x24(%rax),%ymm8
- DB 196,98,125,24,13,232,225,2,0 ; vbroadcastss 0x2e1e8(%rip),%ymm9 # 34200 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
+ DB 196,98,125,24,13,40,68,2,0 ; vbroadcastss 0x24428(%rip),%ymm9 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
DB 196,65,44,87,201 ; vxorps %ymm9,%ymm10,%ymm9
DB 196,65,124,92,210 ; vsubps %ymm10,%ymm0,%ymm10
- DB 196,98,125,24,29,121,224,2,0 ; vbroadcastss 0x2e079(%rip),%ymm11 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,29,185,66,2,0 ; vbroadcastss 0x242b9(%rip),%ymm11 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
DB 196,65,44,89,208 ; vmulps %ymm8,%ymm10,%ymm10
DB 197,180,92,192 ; vsubps %ymm0,%ymm9,%ymm0
@@ -5903,14 +5903,14 @@ _sk_xy_to_2pt_conical_linear_hsw LABEL PROC
DB 197,58,89,72,44 ; vmulss 0x2c(%rax),%xmm8,%xmm9
DB 196,66,125,24,201 ; vbroadcastss %xmm9,%ymm9
DB 197,52,88,200 ; vaddps %ymm0,%ymm9,%ymm9
- DB 196,98,125,24,21,148,225,2,0 ; vbroadcastss 0x2e194(%rip),%ymm10 # 341f8 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ DB 196,98,125,24,21,212,67,2,0 ; vbroadcastss 0x243d4(%rip),%ymm10 # 2a438 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
DB 197,116,89,209 ; vmulps %ymm1,%ymm1,%ymm10
DB 196,98,125,184,208 ; vfmadd231ps %ymm0,%ymm0,%ymm10
DB 196,193,58,89,192 ; vmulss %xmm8,%xmm8,%xmm0
DB 196,226,125,24,192 ; vbroadcastss %xmm0,%ymm0
DB 197,172,92,192 ; vsubps %ymm0,%ymm10,%ymm0
- DB 196,98,125,24,5,119,225,2,0 ; vbroadcastss 0x2e177(%rip),%ymm8 # 34200 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
+ DB 196,98,125,24,5,183,67,2,0 ; vbroadcastss 0x243b7(%rip),%ymm8 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
DB 196,193,124,87,192 ; vxorps %ymm8,%ymm0,%ymm0
DB 196,193,124,94,193 ; vdivps %ymm9,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -5944,7 +5944,7 @@ _sk_apply_vector_mask_hsw LABEL PROC
PUBLIC _sk_save_xy_hsw
_sk_save_xy_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,183,223,2,0 ; vbroadcastss 0x2dfb7(%rip),%ymm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,5,247,65,2,0 ; vbroadcastss 0x241f7(%rip),%ymm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,124,88,200 ; vaddps %ymm8,%ymm0,%ymm9
DB 196,67,125,8,209,1 ; vroundps $0x1,%ymm9,%ymm10
DB 196,65,52,92,202 ; vsubps %ymm10,%ymm9,%ymm9
@@ -5974,9 +5974,9 @@ _sk_accumulate_hsw LABEL PROC
PUBLIC _sk_bilinear_nx_hsw
_sk_bilinear_nx_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,167,224,2,0 ; vbroadcastss 0x2e0a7(%rip),%ymm0 # 34204 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ DB 196,226,125,24,5,231,66,2,0 ; vbroadcastss 0x242e7(%rip),%ymm0 # 2a444 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,62,223,2,0 ; vbroadcastss 0x2df3e(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,126,65,2,0 ; vbroadcastss 0x2417e(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,64 ; vsubps 0x40(%rax),%ymm8,%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -5985,7 +5985,7 @@ _sk_bilinear_nx_hsw LABEL PROC
PUBLIC _sk_bilinear_px_hsw
_sk_bilinear_px_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,30,223,2,0 ; vbroadcastss 0x2df1e(%rip),%ymm0 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,226,125,24,5,94,65,2,0 ; vbroadcastss 0x2415e(%rip),%ymm0 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
DB 197,124,16,64,64 ; vmovups 0x40(%rax),%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
@@ -5995,9 +5995,9 @@ _sk_bilinear_px_hsw LABEL PROC
PUBLIC _sk_bilinear_ny_hsw
_sk_bilinear_ny_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,94,224,2,0 ; vbroadcastss 0x2e05e(%rip),%ymm1 # 34204 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ DB 196,226,125,24,13,158,66,2,0 ; vbroadcastss 0x2429e(%rip),%ymm1 # 2a444 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
DB 197,244,88,72,32 ; vaddps 0x20(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,244,222,2,0 ; vbroadcastss 0x2def4(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,52,65,2,0 ; vbroadcastss 0x24134(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,96 ; vsubps 0x60(%rax),%ymm8,%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -6006,7 +6006,7 @@ _sk_bilinear_ny_hsw LABEL PROC
PUBLIC _sk_bilinear_py_hsw
_sk_bilinear_py_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,212,222,2,0 ; vbroadcastss 0x2ded4(%rip),%ymm1 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,226,125,24,13,20,65,2,0 ; vbroadcastss 0x24114(%rip),%ymm1 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,244,88,72,32 ; vaddps 0x20(%rax),%ymm1,%ymm1
DB 197,124,16,64,96 ; vmovups 0x60(%rax),%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
@@ -6016,13 +6016,13 @@ _sk_bilinear_py_hsw LABEL PROC
PUBLIC _sk_bicubic_n3x_hsw
_sk_bicubic_n3x_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,23,224,2,0 ; vbroadcastss 0x2e017(%rip),%ymm0 # 34208 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ DB 196,226,125,24,5,87,66,2,0 ; vbroadcastss 0x24257(%rip),%ymm0 # 2a448 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,170,222,2,0 ; vbroadcastss 0x2deaa(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,234,64,2,0 ; vbroadcastss 0x240ea(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,64 ; vsubps 0x40(%rax),%ymm8,%ymm8
DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,7,223,2,0 ; vbroadcastss 0x2df07(%rip),%ymm10 # 34118 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- DB 196,98,125,24,29,242,223,2,0 ; vbroadcastss 0x2dff2(%rip),%ymm11 # 3420c <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
+ DB 196,98,125,24,21,71,65,2,0 ; vbroadcastss 0x24147(%rip),%ymm10 # 2a358 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ DB 196,98,125,24,29,50,66,2,0 ; vbroadcastss 0x24232(%rip),%ymm11 # 2a44c <_sk_srcover_rgba_8888_sse2_lowp+0x994>
DB 196,66,61,168,218 ; vfmadd213ps %ymm10,%ymm8,%ymm11
DB 196,65,36,89,193 ; vmulps %ymm9,%ymm11,%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
@@ -6032,16 +6032,16 @@ _sk_bicubic_n3x_hsw LABEL PROC
PUBLIC _sk_bicubic_n1x_hsw
_sk_bicubic_n1x_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,201,223,2,0 ; vbroadcastss 0x2dfc9(%rip),%ymm0 # 34204 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ DB 196,226,125,24,5,9,66,2,0 ; vbroadcastss 0x24209(%rip),%ymm0 # 2a444 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,96,222,2,0 ; vbroadcastss 0x2de60(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,160,64,2,0 ; vbroadcastss 0x240a0(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,64 ; vsubps 0x40(%rax),%ymm8,%ymm8
- DB 196,98,125,24,13,186,223,2,0 ; vbroadcastss 0x2dfba(%rip),%ymm9 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
- DB 196,98,125,24,21,181,223,2,0 ; vbroadcastss 0x2dfb5(%rip),%ymm10 # 34214 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ DB 196,98,125,24,13,250,65,2,0 ; vbroadcastss 0x241fa(%rip),%ymm9 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ DB 196,98,125,24,21,245,65,2,0 ; vbroadcastss 0x241f5(%rip),%ymm10 # 2a454 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
DB 196,66,61,168,209 ; vfmadd213ps %ymm9,%ymm8,%ymm10
- DB 196,98,125,24,13,55,222,2,0 ; vbroadcastss 0x2de37(%rip),%ymm9 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,13,119,64,2,0 ; vbroadcastss 0x24077(%rip),%ymm9 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,66,61,184,202 ; vfmadd231ps %ymm10,%ymm8,%ymm9
- DB 196,98,125,24,21,157,223,2,0 ; vbroadcastss 0x2df9d(%rip),%ymm10 # 34218 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ DB 196,98,125,24,21,221,65,2,0 ; vbroadcastss 0x241dd(%rip),%ymm10 # 2a458 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
DB 196,66,61,184,209 ; vfmadd231ps %ymm9,%ymm8,%ymm10
DB 197,124,17,144,128,0,0,0 ; vmovups %ymm10,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -6050,14 +6050,14 @@ _sk_bicubic_n1x_hsw LABEL PROC
PUBLIC _sk_bicubic_p1x_hsw
_sk_bicubic_p1x_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,13,222,2,0 ; vbroadcastss 0x2de0d(%rip),%ymm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,5,77,64,2,0 ; vbroadcastss 0x2404d(%rip),%ymm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,188,88,0 ; vaddps (%rax),%ymm8,%ymm0
DB 197,124,16,72,64 ; vmovups 0x40(%rax),%ymm9
- DB 196,98,125,24,21,103,223,2,0 ; vbroadcastss 0x2df67(%rip),%ymm10 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
- DB 196,98,125,24,29,98,223,2,0 ; vbroadcastss 0x2df62(%rip),%ymm11 # 34214 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ DB 196,98,125,24,21,167,65,2,0 ; vbroadcastss 0x241a7(%rip),%ymm10 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ DB 196,98,125,24,29,162,65,2,0 ; vbroadcastss 0x241a2(%rip),%ymm11 # 2a454 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
DB 196,66,53,168,218 ; vfmadd213ps %ymm10,%ymm9,%ymm11
DB 196,66,53,168,216 ; vfmadd213ps %ymm8,%ymm9,%ymm11
- DB 196,98,125,24,5,83,223,2,0 ; vbroadcastss 0x2df53(%rip),%ymm8 # 34218 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ DB 196,98,125,24,5,147,65,2,0 ; vbroadcastss 0x24193(%rip),%ymm8 # 2a458 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
DB 196,66,53,184,195 ; vfmadd231ps %ymm11,%ymm9,%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -6066,12 +6066,12 @@ _sk_bicubic_p1x_hsw LABEL PROC
PUBLIC _sk_bicubic_p3x_hsw
_sk_bicubic_p3x_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,47,223,2,0 ; vbroadcastss 0x2df2f(%rip),%ymm0 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ DB 196,226,125,24,5,111,65,2,0 ; vbroadcastss 0x2416f(%rip),%ymm0 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
DB 197,124,16,64,64 ; vmovups 0x40(%rax),%ymm8
DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,32,222,2,0 ; vbroadcastss 0x2de20(%rip),%ymm10 # 34118 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- DB 196,98,125,24,29,11,223,2,0 ; vbroadcastss 0x2df0b(%rip),%ymm11 # 3420c <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
+ DB 196,98,125,24,21,96,64,2,0 ; vbroadcastss 0x24060(%rip),%ymm10 # 2a358 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ DB 196,98,125,24,29,75,65,2,0 ; vbroadcastss 0x2414b(%rip),%ymm11 # 2a44c <_sk_srcover_rgba_8888_sse2_lowp+0x994>
DB 196,66,61,168,218 ; vfmadd213ps %ymm10,%ymm8,%ymm11
DB 196,65,52,89,195 ; vmulps %ymm11,%ymm9,%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
@@ -6081,13 +6081,13 @@ _sk_bicubic_p3x_hsw LABEL PROC
PUBLIC _sk_bicubic_n3y_hsw
_sk_bicubic_n3y_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,230,222,2,0 ; vbroadcastss 0x2dee6(%rip),%ymm1 # 34208 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ DB 196,226,125,24,13,38,65,2,0 ; vbroadcastss 0x24126(%rip),%ymm1 # 2a448 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
DB 197,244,88,72,32 ; vaddps 0x20(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,120,221,2,0 ; vbroadcastss 0x2dd78(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,184,63,2,0 ; vbroadcastss 0x23fb8(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,96 ; vsubps 0x60(%rax),%ymm8,%ymm8
DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,213,221,2,0 ; vbroadcastss 0x2ddd5(%rip),%ymm10 # 34118 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- DB 196,98,125,24,29,192,222,2,0 ; vbroadcastss 0x2dec0(%rip),%ymm11 # 3420c <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
+ DB 196,98,125,24,21,21,64,2,0 ; vbroadcastss 0x24015(%rip),%ymm10 # 2a358 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ DB 196,98,125,24,29,0,65,2,0 ; vbroadcastss 0x24100(%rip),%ymm11 # 2a44c <_sk_srcover_rgba_8888_sse2_lowp+0x994>
DB 196,66,61,168,218 ; vfmadd213ps %ymm10,%ymm8,%ymm11
DB 196,65,36,89,193 ; vmulps %ymm9,%ymm11,%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
@@ -6097,16 +6097,16 @@ _sk_bicubic_n3y_hsw LABEL PROC
PUBLIC _sk_bicubic_n1y_hsw
_sk_bicubic_n1y_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,151,222,2,0 ; vbroadcastss 0x2de97(%rip),%ymm1 # 34204 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ DB 196,226,125,24,13,215,64,2,0 ; vbroadcastss 0x240d7(%rip),%ymm1 # 2a444 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
DB 197,244,88,72,32 ; vaddps 0x20(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,45,221,2,0 ; vbroadcastss 0x2dd2d(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,109,63,2,0 ; vbroadcastss 0x23f6d(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,96 ; vsubps 0x60(%rax),%ymm8,%ymm8
- DB 196,98,125,24,13,135,222,2,0 ; vbroadcastss 0x2de87(%rip),%ymm9 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
- DB 196,98,125,24,21,130,222,2,0 ; vbroadcastss 0x2de82(%rip),%ymm10 # 34214 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ DB 196,98,125,24,13,199,64,2,0 ; vbroadcastss 0x240c7(%rip),%ymm9 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ DB 196,98,125,24,21,194,64,2,0 ; vbroadcastss 0x240c2(%rip),%ymm10 # 2a454 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
DB 196,66,61,168,209 ; vfmadd213ps %ymm9,%ymm8,%ymm10
- DB 196,98,125,24,13,4,221,2,0 ; vbroadcastss 0x2dd04(%rip),%ymm9 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,13,68,63,2,0 ; vbroadcastss 0x23f44(%rip),%ymm9 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,66,61,184,202 ; vfmadd231ps %ymm10,%ymm8,%ymm9
- DB 196,98,125,24,21,106,222,2,0 ; vbroadcastss 0x2de6a(%rip),%ymm10 # 34218 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ DB 196,98,125,24,21,170,64,2,0 ; vbroadcastss 0x240aa(%rip),%ymm10 # 2a458 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
DB 196,66,61,184,209 ; vfmadd231ps %ymm9,%ymm8,%ymm10
DB 197,124,17,144,160,0,0,0 ; vmovups %ymm10,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -6115,14 +6115,14 @@ _sk_bicubic_n1y_hsw LABEL PROC
PUBLIC _sk_bicubic_p1y_hsw
_sk_bicubic_p1y_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,218,220,2,0 ; vbroadcastss 0x2dcda(%rip),%ymm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,5,26,63,2,0 ; vbroadcastss 0x23f1a(%rip),%ymm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,188,88,72,32 ; vaddps 0x20(%rax),%ymm8,%ymm1
DB 197,124,16,72,96 ; vmovups 0x60(%rax),%ymm9
- DB 196,98,125,24,21,51,222,2,0 ; vbroadcastss 0x2de33(%rip),%ymm10 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
- DB 196,98,125,24,29,46,222,2,0 ; vbroadcastss 0x2de2e(%rip),%ymm11 # 34214 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ DB 196,98,125,24,21,115,64,2,0 ; vbroadcastss 0x24073(%rip),%ymm10 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ DB 196,98,125,24,29,110,64,2,0 ; vbroadcastss 0x2406e(%rip),%ymm11 # 2a454 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
DB 196,66,53,168,218 ; vfmadd213ps %ymm10,%ymm9,%ymm11
DB 196,66,53,168,216 ; vfmadd213ps %ymm8,%ymm9,%ymm11
- DB 196,98,125,24,5,31,222,2,0 ; vbroadcastss 0x2de1f(%rip),%ymm8 # 34218 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ DB 196,98,125,24,5,95,64,2,0 ; vbroadcastss 0x2405f(%rip),%ymm8 # 2a458 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
DB 196,66,53,184,195 ; vfmadd231ps %ymm11,%ymm9,%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -6131,12 +6131,12 @@ _sk_bicubic_p1y_hsw LABEL PROC
PUBLIC _sk_bicubic_p3y_hsw
_sk_bicubic_p3y_hsw LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,251,221,2,0 ; vbroadcastss 0x2ddfb(%rip),%ymm1 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ DB 196,226,125,24,13,59,64,2,0 ; vbroadcastss 0x2403b(%rip),%ymm1 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
DB 197,244,88,72,32 ; vaddps 0x20(%rax),%ymm1,%ymm1
DB 197,124,16,64,96 ; vmovups 0x60(%rax),%ymm8
DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,235,220,2,0 ; vbroadcastss 0x2dceb(%rip),%ymm10 # 34118 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- DB 196,98,125,24,29,214,221,2,0 ; vbroadcastss 0x2ddd6(%rip),%ymm11 # 3420c <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
+ DB 196,98,125,24,21,43,63,2,0 ; vbroadcastss 0x23f2b(%rip),%ymm10 # 2a358 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ DB 196,98,125,24,29,22,64,2,0 ; vbroadcastss 0x24016(%rip),%ymm11 # 2a44c <_sk_srcover_rgba_8888_sse2_lowp+0x994>
DB 196,66,61,168,218 ; vfmadd213ps %ymm10,%ymm8,%ymm11
DB 196,65,52,89,195 ; vmulps %ymm11,%ymm9,%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
@@ -6264,7 +6264,7 @@ _sk_clut_3D_hsw LABEL PROC
DB 196,98,93,64,218 ; vpmulld %ymm2,%ymm4,%ymm11
DB 72,139,0 ; mov (%rax),%rax
DB 197,165,254,193 ; vpaddd %ymm1,%ymm11,%ymm0
- DB 196,98,125,88,61,165,219,2,0 ; vpbroadcastd 0x2dba5(%rip),%ymm15 # 34220 <_sk_srcover_rgba_8888_sse2_lowp+0xdec>
+ DB 196,98,125,88,61,229,61,2,0 ; vpbroadcastd 0x23de5(%rip),%ymm15 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
DB 196,194,125,64,199 ; vpmulld %ymm15,%ymm0,%ymm0
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -6276,13 +6276,13 @@ _sk_clut_3D_hsw LABEL PROC
DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
DB 196,226,85,146,60,144 ; vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
DB 197,252,17,188,36,128,2,0,0 ; vmovups %ymm7,0x280(%rsp)
- DB 196,226,125,88,61,243,217,2,0 ; vpbroadcastd 0x2d9f3(%rip),%ymm7 # 340b4 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ DB 196,226,125,88,61,51,60,2,0 ; vpbroadcastd 0x23c33(%rip),%ymm7 # 2a2f4 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
DB 197,253,254,199 ; vpaddd %ymm7,%ymm0,%ymm0
DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
DB 196,226,85,146,20,128 ; vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
DB 197,252,17,148,36,160,1,0,0 ; vmovups %ymm2,0x1a0(%rsp)
- DB 196,226,125,24,5,55,219,2,0 ; vbroadcastss 0x2db37(%rip),%ymm0 # 3421c <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ DB 196,226,125,24,5,119,61,2,0 ; vbroadcastss 0x23d77(%rip),%ymm0 # 2a45c <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
DB 197,172,88,232 ; vaddps %ymm0,%ymm10,%ymm5
DB 197,254,91,237 ; vcvttps2dq %ymm5,%ymm5
DB 196,226,93,64,213 ; vpmulld %ymm5,%ymm4,%ymm2
@@ -6542,7 +6542,7 @@ _sk_clut_4D_hsw LABEL PROC
DB 197,254,127,132,36,128,1,0,0 ; vmovdqu %ymm0,0x180(%rsp)
DB 196,98,109,64,200 ; vpmulld %ymm0,%ymm2,%ymm9
DB 197,181,254,199 ; vpaddd %ymm7,%ymm9,%ymm0
- DB 196,98,125,88,21,185,213,2,0 ; vpbroadcastd 0x2d5b9(%rip),%ymm10 # 34220 <_sk_srcover_rgba_8888_sse2_lowp+0xdec>
+ DB 196,98,125,88,21,249,55,2,0 ; vpbroadcastd 0x237f9(%rip),%ymm10 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
DB 196,194,125,64,194 ; vpmulld %ymm10,%ymm0,%ymm0
DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
@@ -6554,13 +6554,13 @@ _sk_clut_4D_hsw LABEL PROC
DB 196,65,36,87,219 ; vxorps %ymm11,%ymm11,%ymm11
DB 196,98,61,146,28,168 ; vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
DB 197,124,17,156,36,64,1,0,0 ; vmovups %ymm11,0x140(%rsp)
- DB 196,98,125,88,29,4,212,2,0 ; vpbroadcastd 0x2d404(%rip),%ymm11 # 340b4 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ DB 196,98,125,88,29,68,54,2,0 ; vpbroadcastd 0x23644(%rip),%ymm11 # 2a2f4 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
DB 196,193,125,254,195 ; vpaddd %ymm11,%ymm0,%ymm0
DB 196,65,61,118,192 ; vpcmpeqd %ymm8,%ymm8,%ymm8
DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
DB 196,226,61,146,44,128 ; vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
DB 197,252,17,172,36,160,0,0,0 ; vmovups %ymm5,0xa0(%rsp)
- DB 196,226,125,24,5,70,213,2,0 ; vbroadcastss 0x2d546(%rip),%ymm0 # 3421c <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ DB 196,226,125,24,5,134,55,2,0 ; vbroadcastss 0x23786(%rip),%ymm0 # 2a45c <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
DB 197,116,88,192 ; vaddps %ymm0,%ymm1,%ymm8
DB 196,65,126,91,192 ; vcvttps2dq %ymm8,%ymm8
DB 196,194,109,64,232 ; vpmulld %ymm8,%ymm2,%ymm5
@@ -6993,7 +6993,7 @@ _sk_clut_4D_hsw LABEL PROC
DB 196,193,100,92,210 ; vsubps %ymm10,%ymm3,%ymm2
DB 196,194,77,168,210 ; vfmadd213ps %ymm10,%ymm6,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,246,201,2,0 ; vbroadcastss 0x2c9f6(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,54,44,2,0 ; vbroadcastss 0x22c36(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,16,164,36,224,6,0,0 ; vmovups 0x6e0(%rsp),%ymm4
DB 197,252,16,172,36,0,7,0,0 ; vmovups 0x700(%rsp),%ymm5
DB 197,252,16,180,36,32,7,0,0 ; vmovups 0x720(%rsp),%ymm6
@@ -7092,15 +7092,15 @@ _sk_seed_shader_avx LABEL PROC
DB 197,249,112,192,0 ; vpshufd $0x0,%xmm0,%xmm0
DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 197,252,88,5,229,193,2,0 ; vaddps 0x2c1e5(%rip),%ymm0,%ymm0 # 33a20 <_sk_srcover_rgba_8888_sse2_lowp+0x5ec>
+ DB 197,252,88,5,133,40,2,0 ; vaddps 0x22885(%rip),%ymm0,%ymm0 # 2a0c0 <_sk_srcover_rgba_8888_sse2_lowp+0x608>
DB 197,249,110,201 ; vmovd %ecx,%xmm1
DB 197,249,112,201,0 ; vpshufd $0x0,%xmm1,%xmm1
DB 196,227,117,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,77,200,2,0 ; vbroadcastss 0x2c84d(%rip),%ymm2 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,226,125,24,21,141,42,2,0 ; vbroadcastss 0x22a8d(%rip),%ymm2 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,244,88,202 ; vaddps %ymm2,%ymm1,%ymm1
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,21,66,200,2,0 ; vbroadcastss 0x2c842(%rip),%ymm2 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,21,130,42,2,0 ; vbroadcastss 0x22a82(%rip),%ymm2 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
@@ -7112,46 +7112,46 @@ PUBLIC _sk_dither_avx
_sk_dither_avx LABEL PROC
DB 197,121,110,194 ; vmovd %edx,%xmm8
DB 196,65,121,112,192,0 ; vpshufd $0x0,%xmm8,%xmm8
- DB 197,57,254,13,2,202,2,0 ; vpaddd 0x2ca02(%rip),%xmm8,%xmm9 # 34290 <_sk_srcover_rgba_8888_sse2_lowp+0xe5c>
- DB 197,57,254,5,10,202,2,0 ; vpaddd 0x2ca0a(%rip),%xmm8,%xmm8 # 342a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe6c>
+ DB 197,57,254,13,34,44,2,0 ; vpaddd 0x22c22(%rip),%xmm8,%xmm9 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ DB 197,57,254,5,42,44,2,0 ; vpaddd 0x22c2a(%rip),%xmm8,%xmm8 # 2a4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
DB 196,67,53,24,208,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
DB 197,121,110,217 ; vmovd %ecx,%xmm11
DB 196,65,121,112,219,0 ; vpshufd $0x0,%xmm11,%xmm11
DB 196,67,37,24,219,1 ; vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
DB 196,65,36,87,218 ; vxorps %ymm10,%ymm11,%ymm11
- DB 196,98,125,24,21,242,199,2,0 ; vbroadcastss 0x2c7f2(%rip),%ymm10 # 340ac <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 196,98,125,24,21,50,42,2,0 ; vbroadcastss 0x22a32(%rip),%ymm10 # 2a2ec <_sk_srcover_rgba_8888_sse2_lowp+0x834>
DB 196,65,36,84,210 ; vandps %ymm10,%ymm11,%ymm10
DB 196,193,25,114,242,5 ; vpslld $0x5,%xmm10,%xmm12
DB 196,67,125,25,210,1 ; vextractf128 $0x1,%ymm10,%xmm10
DB 196,193,41,114,242,5 ; vpslld $0x5,%xmm10,%xmm10
DB 196,67,29,24,210,1 ; vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- DB 197,123,18,37,129,210,2,0 ; vmovddup 0x2d281(%rip),%xmm12 # 34b60 <_sk_srcover_rgba_8888_sse2_lowp+0x172c>
+ DB 197,123,18,37,177,51,2,0 ; vmovddup 0x233b1(%rip),%xmm12 # 2ac90 <_sk_srcover_rgba_8888_sse2_lowp+0x11d8>
DB 196,65,49,219,236 ; vpand %xmm12,%xmm9,%xmm13
DB 196,193,17,114,245,4 ; vpslld $0x4,%xmm13,%xmm13
DB 196,65,57,219,228 ; vpand %xmm12,%xmm8,%xmm12
DB 196,193,25,114,244,4 ; vpslld $0x4,%xmm12,%xmm12
DB 196,67,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- DB 196,98,125,24,45,176,199,2,0 ; vbroadcastss 0x2c7b0(%rip),%ymm13 # 340b4 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ DB 196,98,125,24,45,240,41,2,0 ; vbroadcastss 0x229f0(%rip),%ymm13 # 2a2f4 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
DB 196,65,36,84,237 ; vandps %ymm13,%ymm11,%ymm13
DB 196,193,9,114,245,2 ; vpslld $0x2,%xmm13,%xmm14
DB 196,67,125,25,237,1 ; vextractf128 $0x1,%ymm13,%xmm13
DB 196,193,17,114,245,2 ; vpslld $0x2,%xmm13,%xmm13
DB 196,67,13,24,237,1 ; vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- DB 197,123,18,53,63,210,2,0 ; vmovddup 0x2d23f(%rip),%xmm14 # 34b68 <_sk_srcover_rgba_8888_sse2_lowp+0x1734>
+ DB 197,123,18,53,111,51,2,0 ; vmovddup 0x2336f(%rip),%xmm14 # 2ac98 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
DB 196,65,49,219,254 ; vpand %xmm14,%xmm9,%xmm15
DB 196,65,1,254,255 ; vpaddd %xmm15,%xmm15,%xmm15
DB 196,65,57,219,246 ; vpand %xmm14,%xmm8,%xmm14
DB 196,65,9,254,246 ; vpaddd %xmm14,%xmm14,%xmm14
DB 196,67,5,24,246,1 ; vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
DB 196,65,12,86,228 ; vorps %ymm12,%ymm14,%ymm12
- DB 196,98,125,24,53,95,199,2,0 ; vbroadcastss 0x2c75f(%rip),%ymm14 # 340b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc7c>
+ DB 196,98,125,24,53,159,41,2,0 ; vbroadcastss 0x2299f(%rip),%ymm14 # 2a2f0 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
DB 196,65,36,84,222 ; vandps %ymm14,%ymm11,%ymm11
DB 196,193,9,114,211,1 ; vpsrld $0x1,%xmm11,%xmm14
DB 196,67,125,25,219,1 ; vextractf128 $0x1,%ymm11,%xmm11
DB 196,193,33,114,211,1 ; vpsrld $0x1,%xmm11,%xmm11
DB 196,67,13,24,219,1 ; vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
DB 196,65,20,86,219 ; vorps %ymm11,%ymm13,%ymm11
- DB 197,123,18,45,245,209,2,0 ; vmovddup 0x2d1f5(%rip),%xmm13 # 34b70 <_sk_srcover_rgba_8888_sse2_lowp+0x173c>
+ DB 197,123,18,45,37,51,2,0 ; vmovddup 0x23325(%rip),%xmm13 # 2aca0 <_sk_srcover_rgba_8888_sse2_lowp+0x11e8>
DB 196,65,49,219,205 ; vpand %xmm13,%xmm9,%xmm9
DB 196,65,57,219,197 ; vpand %xmm13,%xmm8,%xmm8
DB 196,193,49,114,209,2 ; vpsrld $0x2,%xmm9,%xmm9
@@ -7162,9 +7162,9 @@ _sk_dither_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 196,65,60,86,195 ; vorps %ymm11,%ymm8,%ymm8
DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,2,199,2,0 ; vbroadcastss 0x2c702(%rip),%ymm9 # 340b8 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ DB 196,98,125,24,13,66,41,2,0 ; vbroadcastss 0x22942(%rip),%ymm9 # 2a2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x840>
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,13,248,198,2,0 ; vbroadcastss 0x2c6f8(%rip),%ymm9 # 340bc <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
+ DB 196,98,125,24,13,56,41,2,0 ; vbroadcastss 0x22938(%rip),%ymm9 # 2a2fc <_sk_srcover_rgba_8888_sse2_lowp+0x844>
DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
DB 196,98,125,24,8 ; vbroadcastss (%rax),%ymm9
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
@@ -7194,7 +7194,7 @@ _sk_uniform_color_avx LABEL PROC
PUBLIC _sk_black_color_avx
_sk_black_color_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,128,198,2,0 ; vbroadcastss 0x2c680(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,192,40,2,0 ; vbroadcastss 0x228c0(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
@@ -7203,7 +7203,7 @@ _sk_black_color_avx LABEL PROC
PUBLIC _sk_white_color_avx
_sk_white_color_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,103,198,2,0 ; vbroadcastss 0x2c667(%rip),%ymm0 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,5,167,40,2,0 ; vbroadcastss 0x228a7(%rip),%ymm0 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
DB 197,252,40,216 ; vmovaps %ymm0,%ymm3
@@ -7241,7 +7241,7 @@ _sk_clear_avx LABEL PROC
PUBLIC _sk_srcatop_avx
_sk_srcatop_avx LABEL PROC
DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 196,98,125,24,5,6,198,2,0 ; vbroadcastss 0x2c606(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,70,40,2,0 ; vbroadcastss 0x22846(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 197,60,89,204 ; vmulps %ymm4,%ymm8,%ymm9
DB 197,180,88,192 ; vaddps %ymm0,%ymm9,%ymm0
@@ -7260,7 +7260,7 @@ _sk_srcatop_avx LABEL PROC
PUBLIC _sk_dstatop_avx
_sk_dstatop_avx LABEL PROC
DB 197,100,89,196 ; vmulps %ymm4,%ymm3,%ymm8
- DB 196,98,125,24,13,196,197,2,0 ; vbroadcastss 0x2c5c4(%rip),%ymm9 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,13,4,40,2,0 ; vbroadcastss 0x22804(%rip),%ymm9 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,52,92,207 ; vsubps %ymm7,%ymm9,%ymm9
DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
@@ -7296,7 +7296,7 @@ _sk_dstin_avx LABEL PROC
PUBLIC _sk_srcout_avx
_sk_srcout_avx LABEL PROC
- DB 196,98,125,24,5,95,197,2,0 ; vbroadcastss 0x2c55f(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,159,39,2,0 ; vbroadcastss 0x2279f(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,199 ; vsubps %ymm7,%ymm8,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
@@ -7307,7 +7307,7 @@ _sk_srcout_avx LABEL PROC
PUBLIC _sk_dstout_avx
_sk_dstout_avx LABEL PROC
- DB 196,226,125,24,5,62,197,2,0 ; vbroadcastss 0x2c53e(%rip),%ymm0 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,5,126,39,2,0 ; vbroadcastss 0x2277e(%rip),%ymm0 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,92,219 ; vsubps %ymm3,%ymm0,%ymm3
DB 197,228,89,196 ; vmulps %ymm4,%ymm3,%ymm0
DB 197,228,89,205 ; vmulps %ymm5,%ymm3,%ymm1
@@ -7318,7 +7318,7 @@ _sk_dstout_avx LABEL PROC
PUBLIC _sk_srcover_avx
_sk_srcover_avx LABEL PROC
- DB 196,98,125,24,5,29,197,2,0 ; vbroadcastss 0x2c51d(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,93,39,2,0 ; vbroadcastss 0x2275d(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 197,60,89,204 ; vmulps %ymm4,%ymm8,%ymm9
DB 197,180,88,192 ; vaddps %ymm0,%ymm9,%ymm0
@@ -7333,7 +7333,7 @@ _sk_srcover_avx LABEL PROC
PUBLIC _sk_dstover_avx
_sk_dstover_avx LABEL PROC
- DB 196,98,125,24,5,236,196,2,0 ; vbroadcastss 0x2c4ec(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,44,39,2,0 ; vbroadcastss 0x2272c(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,199 ; vsubps %ymm7,%ymm8,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
@@ -7357,7 +7357,7 @@ _sk_modulate_avx LABEL PROC
PUBLIC _sk_multiply_avx
_sk_multiply_avx LABEL PROC
- DB 196,98,125,24,5,167,196,2,0 ; vbroadcastss 0x2c4a7(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,231,38,2,0 ; vbroadcastss 0x226e7(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
DB 197,52,89,208 ; vmulps %ymm0,%ymm9,%ymm10
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
@@ -7386,7 +7386,7 @@ _sk_multiply_avx LABEL PROC
PUBLIC _sk_plus__avx
_sk_plus__avx LABEL PROC
DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
- DB 196,98,125,24,5,54,196,2,0 ; vbroadcastss 0x2c436(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,118,38,2,0 ; vbroadcastss 0x22676(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
DB 197,244,88,205 ; vaddps %ymm5,%ymm1,%ymm1
DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
@@ -7416,7 +7416,7 @@ _sk_screen_avx LABEL PROC
PUBLIC _sk_xor__avx
_sk_xor__avx LABEL PROC
- DB 196,98,125,24,5,213,195,2,0 ; vbroadcastss 0x2c3d5(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,21,38,2,0 ; vbroadcastss 0x22615(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
@@ -7451,7 +7451,7 @@ _sk_darken_avx LABEL PROC
DB 197,100,89,206 ; vmulps %ymm6,%ymm3,%ymm9
DB 196,193,108,95,209 ; vmaxps %ymm9,%ymm2,%ymm2
DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,81,195,2,0 ; vbroadcastss 0x2c351(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,145,37,2,0 ; vbroadcastss 0x22591(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
@@ -7475,7 +7475,7 @@ _sk_lighten_avx LABEL PROC
DB 197,100,89,206 ; vmulps %ymm6,%ymm3,%ymm9
DB 196,193,108,93,209 ; vminps %ymm9,%ymm2,%ymm2
DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,249,194,2,0 ; vbroadcastss 0x2c2f9(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,57,37,2,0 ; vbroadcastss 0x22539(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
@@ -7502,7 +7502,7 @@ _sk_difference_avx LABEL PROC
DB 196,193,108,93,209 ; vminps %ymm9,%ymm2,%ymm2
DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,149,194,2,0 ; vbroadcastss 0x2c295(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,213,36,2,0 ; vbroadcastss 0x224d5(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
@@ -7523,7 +7523,7 @@ _sk_exclusion_avx LABEL PROC
DB 197,236,89,214 ; vmulps %ymm6,%ymm2,%ymm2
DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,76,194,2,0 ; vbroadcastss 0x2c24c(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,140,36,2,0 ; vbroadcastss 0x2248c(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
@@ -7532,7 +7532,7 @@ _sk_exclusion_avx LABEL PROC
PUBLIC _sk_colorburn_avx
_sk_colorburn_avx LABEL PROC
- DB 196,98,125,24,5,51,194,2,0 ; vbroadcastss 0x2c233(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,115,36,2,0 ; vbroadcastss 0x22473(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
DB 197,52,89,216 ; vmulps %ymm0,%ymm9,%ymm11
DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
@@ -7592,7 +7592,7 @@ _sk_colorburn_avx LABEL PROC
PUBLIC _sk_colordodge_avx
_sk_colordodge_avx LABEL PROC
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,98,125,24,13,55,193,2,0 ; vbroadcastss 0x2c137(%rip),%ymm9 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,13,119,35,2,0 ; vbroadcastss 0x22377(%rip),%ymm9 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,52,92,215 ; vsubps %ymm7,%ymm9,%ymm10
DB 197,44,89,216 ; vmulps %ymm0,%ymm10,%ymm11
DB 197,52,92,203 ; vsubps %ymm3,%ymm9,%ymm9
@@ -7647,7 +7647,7 @@ _sk_colordodge_avx LABEL PROC
PUBLIC _sk_hardlight_avx
_sk_hardlight_avx LABEL PROC
- DB 196,98,125,24,5,66,192,2,0 ; vbroadcastss 0x2c042(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,130,34,2,0 ; vbroadcastss 0x22282(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,215 ; vsubps %ymm7,%ymm8,%ymm10
DB 197,44,89,200 ; vmulps %ymm0,%ymm10,%ymm9
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
@@ -7700,7 +7700,7 @@ _sk_hardlight_avx LABEL PROC
PUBLIC _sk_overlay_avx
_sk_overlay_avx LABEL PROC
- DB 196,98,125,24,5,103,191,2,0 ; vbroadcastss 0x2bf67(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,167,33,2,0 ; vbroadcastss 0x221a7(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,215 ; vsubps %ymm7,%ymm8,%ymm10
DB 197,44,89,200 ; vmulps %ymm0,%ymm10,%ymm9
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
@@ -7765,10 +7765,10 @@ _sk_softlight_avx LABEL PROC
DB 196,65,60,88,192 ; vaddps %ymm8,%ymm8,%ymm8
DB 196,65,60,89,216 ; vmulps %ymm8,%ymm8,%ymm11
DB 196,65,60,88,195 ; vaddps %ymm11,%ymm8,%ymm8
- DB 196,98,125,24,29,106,190,2,0 ; vbroadcastss 0x2be6a(%rip),%ymm11 # 340c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ DB 196,98,125,24,29,170,32,2,0 ; vbroadcastss 0x220aa(%rip),%ymm11 # 2a300 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
DB 196,65,28,88,235 ; vaddps %ymm11,%ymm12,%ymm13
DB 196,65,20,89,192 ; vmulps %ymm8,%ymm13,%ymm8
- DB 196,98,125,24,45,91,190,2,0 ; vbroadcastss 0x2be5b(%rip),%ymm13 # 340c4 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
+ DB 196,98,125,24,45,155,32,2,0 ; vbroadcastss 0x2209b(%rip),%ymm13 # 2a304 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
DB 196,65,28,89,245 ; vmulps %ymm13,%ymm12,%ymm14
DB 196,65,12,88,192 ; vaddps %ymm8,%ymm14,%ymm8
DB 196,65,124,82,244 ; vrsqrtps %ymm12,%ymm14
@@ -7779,7 +7779,7 @@ _sk_softlight_avx LABEL PROC
DB 197,4,194,255,2 ; vcmpleps %ymm7,%ymm15,%ymm15
DB 196,67,13,74,240,240 ; vblendvps %ymm15,%ymm8,%ymm14,%ymm14
DB 197,116,88,249 ; vaddps %ymm1,%ymm1,%ymm15
- DB 196,98,125,24,5,5,190,2,0 ; vbroadcastss 0x2be05(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,69,32,2,0 ; vbroadcastss 0x22045(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,65,60,92,228 ; vsubps %ymm12,%ymm8,%ymm12
DB 197,132,92,195 ; vsubps %ymm3,%ymm15,%ymm0
DB 196,65,124,89,228 ; vmulps %ymm12,%ymm0,%ymm12
@@ -7906,12 +7906,12 @@ _sk_hue_avx LABEL PROC
DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
DB 196,65,36,94,222 ; vdivps %ymm14,%ymm11,%ymm11
DB 196,67,37,74,224,240 ; vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- DB 196,98,125,24,53,227,187,2,0 ; vbroadcastss 0x2bbe3(%rip),%ymm14 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ DB 196,98,125,24,53,35,30,2,0 ; vbroadcastss 0x21e23(%rip),%ymm14 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
DB 196,65,92,89,222 ; vmulps %ymm14,%ymm4,%ymm11
- DB 196,98,125,24,61,217,187,2,0 ; vbroadcastss 0x2bbd9(%rip),%ymm15 # 340cc <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ DB 196,98,125,24,61,25,30,2,0 ; vbroadcastss 0x21e19(%rip),%ymm15 # 2a30c <_sk_srcover_rgba_8888_sse2_lowp+0x854>
DB 196,65,84,89,239 ; vmulps %ymm15,%ymm5,%ymm13
DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,226,125,24,5,202,187,2,0 ; vbroadcastss 0x2bbca(%rip),%ymm0 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
+ DB 196,226,125,24,5,10,30,2,0 ; vbroadcastss 0x21e0a(%rip),%ymm0 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
DB 197,76,89,232 ; vmulps %ymm0,%ymm6,%ymm13
DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
DB 196,65,52,89,238 ; vmulps %ymm14,%ymm9,%ymm13
@@ -7972,7 +7972,7 @@ _sk_hue_avx LABEL PROC
DB 196,65,36,95,208 ; vmaxps %ymm8,%ymm11,%ymm10
DB 196,195,109,74,209,240 ; vblendvps %ymm15,%ymm9,%ymm2,%ymm2
DB 196,193,108,95,208 ; vmaxps %ymm8,%ymm2,%ymm2
- DB 196,98,125,24,5,119,186,2,0 ; vbroadcastss 0x2ba77(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,183,28,2,0 ; vbroadcastss 0x21cb7(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
DB 197,180,89,201 ; vmulps %ymm1,%ymm9,%ymm1
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
@@ -8029,12 +8029,12 @@ _sk_saturation_avx LABEL PROC
DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
DB 196,65,36,94,222 ; vdivps %ymm14,%ymm11,%ymm11
DB 196,67,37,74,224,240 ; vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- DB 196,98,125,24,53,155,185,2,0 ; vbroadcastss 0x2b99b(%rip),%ymm14 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ DB 196,98,125,24,53,219,27,2,0 ; vbroadcastss 0x21bdb(%rip),%ymm14 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
DB 196,65,92,89,222 ; vmulps %ymm14,%ymm4,%ymm11
- DB 196,98,125,24,61,145,185,2,0 ; vbroadcastss 0x2b991(%rip),%ymm15 # 340cc <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ DB 196,98,125,24,61,209,27,2,0 ; vbroadcastss 0x21bd1(%rip),%ymm15 # 2a30c <_sk_srcover_rgba_8888_sse2_lowp+0x854>
DB 196,65,84,89,239 ; vmulps %ymm15,%ymm5,%ymm13
DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,226,125,24,5,130,185,2,0 ; vbroadcastss 0x2b982(%rip),%ymm0 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
+ DB 196,226,125,24,5,194,27,2,0 ; vbroadcastss 0x21bc2(%rip),%ymm0 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
DB 197,76,89,232 ; vmulps %ymm0,%ymm6,%ymm13
DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
DB 196,65,52,89,238 ; vmulps %ymm14,%ymm9,%ymm13
@@ -8095,7 +8095,7 @@ _sk_saturation_avx LABEL PROC
DB 196,65,36,95,208 ; vmaxps %ymm8,%ymm11,%ymm10
DB 196,195,109,74,209,240 ; vblendvps %ymm15,%ymm9,%ymm2,%ymm2
DB 196,193,108,95,208 ; vmaxps %ymm8,%ymm2,%ymm2
- DB 196,98,125,24,5,47,184,2,0 ; vbroadcastss 0x2b82f(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,111,26,2,0 ; vbroadcastss 0x21a6f(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
DB 197,180,89,201 ; vmulps %ymm1,%ymm9,%ymm1
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
@@ -8124,12 +8124,12 @@ _sk_color_avx LABEL PROC
DB 197,252,17,68,36,32 ; vmovups %ymm0,0x20(%rsp)
DB 197,124,89,199 ; vmulps %ymm7,%ymm0,%ymm8
DB 197,116,89,207 ; vmulps %ymm7,%ymm1,%ymm9
- DB 196,98,125,24,45,219,183,2,0 ; vbroadcastss 0x2b7db(%rip),%ymm13 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ DB 196,98,125,24,45,27,26,2,0 ; vbroadcastss 0x21a1b(%rip),%ymm13 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
DB 196,65,92,89,213 ; vmulps %ymm13,%ymm4,%ymm10
- DB 196,98,125,24,53,209,183,2,0 ; vbroadcastss 0x2b7d1(%rip),%ymm14 # 340cc <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ DB 196,98,125,24,53,17,26,2,0 ; vbroadcastss 0x21a11(%rip),%ymm14 # 2a30c <_sk_srcover_rgba_8888_sse2_lowp+0x854>
DB 196,65,84,89,222 ; vmulps %ymm14,%ymm5,%ymm11
DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,61,194,183,2,0 ; vbroadcastss 0x2b7c2(%rip),%ymm15 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
+ DB 196,98,125,24,61,2,26,2,0 ; vbroadcastss 0x21a02(%rip),%ymm15 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
DB 196,65,76,89,223 ; vmulps %ymm15,%ymm6,%ymm11
DB 196,193,44,88,195 ; vaddps %ymm11,%ymm10,%ymm0
DB 196,65,60,89,221 ; vmulps %ymm13,%ymm8,%ymm11
@@ -8192,7 +8192,7 @@ _sk_color_avx LABEL PROC
DB 196,65,44,95,207 ; vmaxps %ymm15,%ymm10,%ymm9
DB 196,195,37,74,192,0 ; vblendvps %ymm0,%ymm8,%ymm11,%ymm0
DB 196,65,124,95,199 ; vmaxps %ymm15,%ymm0,%ymm8
- DB 196,226,125,24,5,93,182,2,0 ; vbroadcastss 0x2b65d(%rip),%ymm0 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,5,157,24,2,0 ; vbroadcastss 0x2189d(%rip),%ymm0 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,124,92,215 ; vsubps %ymm7,%ymm0,%ymm10
DB 197,172,89,84,36,32 ; vmulps 0x20(%rsp),%ymm10,%ymm2
DB 197,124,92,219 ; vsubps %ymm3,%ymm0,%ymm11
@@ -8222,12 +8222,12 @@ _sk_luminosity_avx LABEL PROC
DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
DB 197,100,89,196 ; vmulps %ymm4,%ymm3,%ymm8
DB 197,100,89,205 ; vmulps %ymm5,%ymm3,%ymm9
- DB 196,98,125,24,45,5,182,2,0 ; vbroadcastss 0x2b605(%rip),%ymm13 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ DB 196,98,125,24,45,69,24,2,0 ; vbroadcastss 0x21845(%rip),%ymm13 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
DB 196,65,108,89,213 ; vmulps %ymm13,%ymm2,%ymm10
- DB 196,98,125,24,53,251,181,2,0 ; vbroadcastss 0x2b5fb(%rip),%ymm14 # 340cc <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
+ DB 196,98,125,24,53,59,24,2,0 ; vbroadcastss 0x2183b(%rip),%ymm14 # 2a30c <_sk_srcover_rgba_8888_sse2_lowp+0x854>
DB 196,65,116,89,222 ; vmulps %ymm14,%ymm1,%ymm11
DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,61,236,181,2,0 ; vbroadcastss 0x2b5ec(%rip),%ymm15 # 340d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc9c>
+ DB 196,98,125,24,61,44,24,2,0 ; vbroadcastss 0x2182c(%rip),%ymm15 # 2a310 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
DB 196,65,28,89,223 ; vmulps %ymm15,%ymm12,%ymm11
DB 196,193,44,88,195 ; vaddps %ymm11,%ymm10,%ymm0
DB 196,65,60,89,221 ; vmulps %ymm13,%ymm8,%ymm11
@@ -8290,7 +8290,7 @@ _sk_luminosity_avx LABEL PROC
DB 196,65,44,95,207 ; vmaxps %ymm15,%ymm10,%ymm9
DB 196,195,37,74,192,0 ; vblendvps %ymm0,%ymm8,%ymm11,%ymm0
DB 196,65,124,95,199 ; vmaxps %ymm15,%ymm0,%ymm8
- DB 196,226,125,24,5,135,180,2,0 ; vbroadcastss 0x2b487(%rip),%ymm0 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,5,199,22,2,0 ; vbroadcastss 0x216c7(%rip),%ymm0 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,124,92,215 ; vsubps %ymm7,%ymm0,%ymm10
DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
DB 197,124,92,219 ; vsubps %ymm3,%ymm0,%ymm11
@@ -8323,7 +8323,7 @@ _sk_srcover_rgba_8888_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,42,1,0,0 ; jne 8db9 <_sk_srcover_rgba_8888_avx+0x14a>
DB 196,1,125,16,4,152 ; vmovupd (%r8,%r11,4),%ymm8
- DB 197,125,40,13,163,173,2,0 ; vmovapd 0x2ada3(%rip),%ymm9 # 33a40 <_sk_srcover_rgba_8888_sse2_lowp+0x60c>
+ DB 197,125,40,13,67,20,2,0 ; vmovapd 0x21443(%rip),%ymm9 # 2a0e0 <_sk_srcover_rgba_8888_sse2_lowp+0x628>
DB 196,193,61,84,225 ; vandpd %ymm9,%ymm8,%ymm4
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
DB 196,193,81,114,208,8 ; vpsrld $0x8,%xmm8,%xmm5
@@ -8341,9 +8341,9 @@ _sk_srcover_rgba_8888_avx LABEL PROC
DB 197,193,114,215,24 ; vpsrld $0x18,%xmm7,%xmm7
DB 196,227,61,24,255,1 ; vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,5,170,179,2,0 ; vbroadcastss 0x2b3aa(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,234,21,2,0 ; vbroadcastss 0x215ea(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,98,125,24,13,201,179,2,0 ; vbroadcastss 0x2b3c9(%rip),%ymm9 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,13,9,22,2,0 ; vbroadcastss 0x21609(%rip),%ymm9 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
DB 197,60,89,212 ; vmulps %ymm4,%ymm8,%ymm10
DB 196,193,124,88,194 ; vaddps %ymm10,%ymm0,%ymm0
@@ -8479,7 +8479,7 @@ _sk_clamp_0_avx LABEL PROC
PUBLIC _sk_clamp_1_avx
_sk_clamp_1_avx LABEL PROC
- DB 196,98,125,24,5,106,177,2,0 ; vbroadcastss 0x2b16a(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,170,19,2,0 ; vbroadcastss 0x213aa(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
@@ -8489,7 +8489,7 @@ _sk_clamp_1_avx LABEL PROC
PUBLIC _sk_clamp_a_avx
_sk_clamp_a_avx LABEL PROC
- DB 196,98,125,24,5,73,177,2,0 ; vbroadcastss 0x2b149(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,137,19,2,0 ; vbroadcastss 0x21389(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
DB 197,252,93,195 ; vminps %ymm3,%ymm0,%ymm0
DB 197,244,93,203 ; vminps %ymm3,%ymm1,%ymm1
@@ -8499,7 +8499,7 @@ _sk_clamp_a_avx LABEL PROC
PUBLIC _sk_clamp_a_dst_avx
_sk_clamp_a_dst_avx LABEL PROC
- DB 196,98,125,24,5,43,177,2,0 ; vbroadcastss 0x2b12b(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,107,19,2,0 ; vbroadcastss 0x2136b(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,68,93,248 ; vminps %ymm8,%ymm7,%ymm7
DB 197,220,93,231 ; vminps %ymm7,%ymm4,%ymm4
DB 197,212,93,239 ; vminps %ymm7,%ymm5,%ymm5
@@ -8526,7 +8526,7 @@ _sk_swap_rb_avx LABEL PROC
PUBLIC _sk_invert_avx
_sk_invert_avx LABEL PROC
- DB 196,98,125,24,5,230,176,2,0 ; vbroadcastss 0x2b0e6(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,38,19,2,0 ; vbroadcastss 0x21326(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
@@ -8572,7 +8572,7 @@ PUBLIC _sk_unpremul_avx
_sk_unpremul_avx LABEL PROC
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 196,65,100,194,200,0 ; vcmpeqps %ymm8,%ymm3,%ymm9
- DB 196,98,125,24,21,118,176,2,0 ; vbroadcastss 0x2b076(%rip),%ymm10 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,21,182,18,2,0 ; vbroadcastss 0x212b6(%rip),%ymm10 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,44,94,211 ; vdivps %ymm3,%ymm10,%ymm10
DB 196,67,45,74,192,144 ; vblendvps %ymm9,%ymm8,%ymm10,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
@@ -8583,17 +8583,17 @@ _sk_unpremul_avx LABEL PROC
PUBLIC _sk_from_srgb_avx
_sk_from_srgb_avx LABEL PROC
- DB 196,98,125,24,5,131,176,2,0 ; vbroadcastss 0x2b083(%rip),%ymm8 # 340d8 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ DB 196,98,125,24,5,195,18,2,0 ; vbroadcastss 0x212c3(%rip),%ymm8 # 2a318 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
DB 197,124,89,208 ; vmulps %ymm0,%ymm0,%ymm10
- DB 196,98,125,24,29,97,176,2,0 ; vbroadcastss 0x2b061(%rip),%ymm11 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ DB 196,98,125,24,29,161,18,2,0 ; vbroadcastss 0x212a1(%rip),%ymm11 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
DB 196,65,124,89,227 ; vmulps %ymm11,%ymm0,%ymm12
- DB 196,98,125,24,45,103,176,2,0 ; vbroadcastss 0x2b067(%rip),%ymm13 # 340dc <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
+ DB 196,98,125,24,45,167,18,2,0 ; vbroadcastss 0x212a7(%rip),%ymm13 # 2a31c <_sk_srcover_rgba_8888_sse2_lowp+0x864>
DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
DB 196,65,44,89,212 ; vmulps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,37,88,176,2,0 ; vbroadcastss 0x2b058(%rip),%ymm12 # 340e0 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ DB 196,98,125,24,37,152,18,2,0 ; vbroadcastss 0x21298(%rip),%ymm12 # 2a320 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,53,78,176,2,0 ; vbroadcastss 0x2b04e(%rip),%ymm14 # 340e4 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ DB 196,98,125,24,53,142,18,2,0 ; vbroadcastss 0x2128e(%rip),%ymm14 # 2a324 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
DB 196,193,124,194,198,1 ; vcmpltps %ymm14,%ymm0,%ymm0
DB 196,195,45,74,193,0 ; vblendvps %ymm0,%ymm9,%ymm10,%ymm0
DB 196,65,116,89,200 ; vmulps %ymm8,%ymm1,%ymm9
@@ -8617,17 +8617,17 @@ _sk_from_srgb_avx LABEL PROC
PUBLIC _sk_from_srgb_dst_avx
_sk_from_srgb_dst_avx LABEL PROC
- DB 196,98,125,24,5,215,175,2,0 ; vbroadcastss 0x2afd7(%rip),%ymm8 # 340d8 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ DB 196,98,125,24,5,23,18,2,0 ; vbroadcastss 0x21217(%rip),%ymm8 # 2a318 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
DB 196,65,92,89,200 ; vmulps %ymm8,%ymm4,%ymm9
DB 197,92,89,212 ; vmulps %ymm4,%ymm4,%ymm10
- DB 196,98,125,24,29,181,175,2,0 ; vbroadcastss 0x2afb5(%rip),%ymm11 # 340c8 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ DB 196,98,125,24,29,245,17,2,0 ; vbroadcastss 0x211f5(%rip),%ymm11 # 2a308 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
DB 196,65,92,89,227 ; vmulps %ymm11,%ymm4,%ymm12
- DB 196,98,125,24,45,187,175,2,0 ; vbroadcastss 0x2afbb(%rip),%ymm13 # 340dc <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
+ DB 196,98,125,24,45,251,17,2,0 ; vbroadcastss 0x211fb(%rip),%ymm13 # 2a31c <_sk_srcover_rgba_8888_sse2_lowp+0x864>
DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
DB 196,65,44,89,212 ; vmulps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,37,172,175,2,0 ; vbroadcastss 0x2afac(%rip),%ymm12 # 340e0 <_sk_srcover_rgba_8888_sse2_lowp+0xcac>
+ DB 196,98,125,24,37,236,17,2,0 ; vbroadcastss 0x211ec(%rip),%ymm12 # 2a320 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,53,162,175,2,0 ; vbroadcastss 0x2afa2(%rip),%ymm14 # 340e4 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ DB 196,98,125,24,53,226,17,2,0 ; vbroadcastss 0x211e2(%rip),%ymm14 # 2a324 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
DB 196,193,92,194,230,1 ; vcmpltps %ymm14,%ymm4,%ymm4
DB 196,195,45,74,225,64 ; vblendvps %ymm4,%ymm9,%ymm10,%ymm4
DB 196,65,84,89,200 ; vmulps %ymm8,%ymm5,%ymm9
@@ -8652,20 +8652,20 @@ _sk_from_srgb_dst_avx LABEL PROC
PUBLIC _sk_to_srgb_avx
_sk_to_srgb_avx LABEL PROC
DB 197,124,82,200 ; vrsqrtps %ymm0,%ymm9
- DB 196,98,125,24,5,55,175,2,0 ; vbroadcastss 0x2af37(%rip),%ymm8 # 340e8 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ DB 196,98,125,24,5,119,17,2,0 ; vbroadcastss 0x21177(%rip),%ymm8 # 2a328 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
DB 196,65,124,89,208 ; vmulps %ymm8,%ymm0,%ymm10
- DB 196,98,125,24,29,49,175,2,0 ; vbroadcastss 0x2af31(%rip),%ymm11 # 340f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcbc>
+ DB 196,98,125,24,29,113,17,2,0 ; vbroadcastss 0x21171(%rip),%ymm11 # 2a330 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
DB 196,65,52,89,227 ; vmulps %ymm11,%ymm9,%ymm12
- DB 196,98,125,24,45,31,175,2,0 ; vbroadcastss 0x2af1f(%rip),%ymm13 # 340ec <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
+ DB 196,98,125,24,45,95,17,2,0 ; vbroadcastss 0x2115f(%rip),%ymm13 # 2a32c <_sk_srcover_rgba_8888_sse2_lowp+0x874>
DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
DB 196,65,52,89,228 ; vmulps %ymm12,%ymm9,%ymm12
- DB 196,98,125,24,53,20,175,2,0 ; vbroadcastss 0x2af14(%rip),%ymm14 # 340f4 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ DB 196,98,125,24,53,84,17,2,0 ; vbroadcastss 0x21154(%rip),%ymm14 # 2a334 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
DB 196,65,28,88,230 ; vaddps %ymm14,%ymm12,%ymm12
- DB 196,98,125,24,61,10,175,2,0 ; vbroadcastss 0x2af0a(%rip),%ymm15 # 340f8 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ DB 196,98,125,24,61,74,17,2,0 ; vbroadcastss 0x2114a(%rip),%ymm15 # 2a338 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
DB 196,65,52,88,207 ; vaddps %ymm15,%ymm9,%ymm9
DB 196,65,124,83,201 ; vrcpps %ymm9,%ymm9
DB 196,65,52,89,204 ; vmulps %ymm12,%ymm9,%ymm9
- DB 196,98,125,24,37,246,174,2,0 ; vbroadcastss 0x2aef6(%rip),%ymm12 # 340fc <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
+ DB 196,98,125,24,37,54,17,2,0 ; vbroadcastss 0x21136(%rip),%ymm12 # 2a33c <_sk_srcover_rgba_8888_sse2_lowp+0x884>
DB 196,193,124,194,196,1 ; vcmpltps %ymm12,%ymm0,%ymm0
DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
DB 197,124,82,201 ; vrsqrtps %ymm1,%ymm9
@@ -8700,7 +8700,7 @@ _sk_rgb_to_hsl_avx LABEL PROC
DB 197,116,93,202 ; vminps %ymm2,%ymm1,%ymm9
DB 196,65,124,93,201 ; vminps %ymm9,%ymm0,%ymm9
DB 196,65,60,92,209 ; vsubps %ymm9,%ymm8,%ymm10
- DB 196,98,125,24,29,2,174,2,0 ; vbroadcastss 0x2ae02(%rip),%ymm11 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,29,66,16,2,0 ; vbroadcastss 0x21042(%rip),%ymm11 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,65,36,94,218 ; vdivps %ymm10,%ymm11,%ymm11
DB 197,116,92,226 ; vsubps %ymm2,%ymm1,%ymm12
DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
@@ -8710,19 +8710,19 @@ _sk_rgb_to_hsl_avx LABEL PROC
DB 196,193,108,89,211 ; vmulps %ymm11,%ymm2,%ymm2
DB 197,252,92,201 ; vsubps %ymm1,%ymm0,%ymm1
DB 196,193,116,89,203 ; vmulps %ymm11,%ymm1,%ymm1
- DB 196,98,125,24,29,47,174,2,0 ; vbroadcastss 0x2ae2f(%rip),%ymm11 # 34108 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ DB 196,98,125,24,29,111,16,2,0 ; vbroadcastss 0x2106f(%rip),%ymm11 # 2a348 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 196,98,125,24,29,29,174,2,0 ; vbroadcastss 0x2ae1d(%rip),%ymm11 # 34104 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ DB 196,98,125,24,29,93,16,2,0 ; vbroadcastss 0x2105d(%rip),%ymm11 # 2a344 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
DB 196,227,117,74,202,224 ; vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- DB 196,226,125,24,21,5,174,2,0 ; vbroadcastss 0x2ae05(%rip),%ymm2 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ DB 196,226,125,24,21,69,16,2,0 ; vbroadcastss 0x21045(%rip),%ymm2 # 2a340 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
DB 196,65,12,87,246 ; vxorps %ymm14,%ymm14,%ymm14
DB 196,227,13,74,210,208 ; vblendvps %ymm13,%ymm2,%ymm14,%ymm2
DB 197,188,194,192,0 ; vcmpeqps %ymm0,%ymm8,%ymm0
DB 196,193,108,88,212 ; vaddps %ymm12,%ymm2,%ymm2
DB 196,227,117,74,194,0 ; vblendvps %ymm0,%ymm2,%ymm1,%ymm0
DB 196,193,60,88,201 ; vaddps %ymm9,%ymm8,%ymm1
- DB 196,98,125,24,37,128,173,2,0 ; vbroadcastss 0x2ad80(%rip),%ymm12 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,37,192,15,2,0 ; vbroadcastss 0x20fc0(%rip),%ymm12 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,193,116,89,212 ; vmulps %ymm12,%ymm1,%ymm2
DB 197,28,194,226,1 ; vcmpltps %ymm2,%ymm12,%ymm12
DB 196,65,36,92,216 ; vsubps %ymm8,%ymm11,%ymm11
@@ -8732,7 +8732,7 @@ _sk_rgb_to_hsl_avx LABEL PROC
DB 197,172,94,201 ; vdivps %ymm1,%ymm10,%ymm1
DB 196,195,125,74,198,128 ; vblendvps %ymm8,%ymm14,%ymm0,%ymm0
DB 196,195,117,74,206,128 ; vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- DB 196,98,125,24,5,175,173,2,0 ; vbroadcastss 0x2adaf(%rip),%ymm8 # 3410c <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 196,98,125,24,5,239,15,2,0 ; vbroadcastss 0x20fef(%rip),%ymm8 # 2a34c <_sk_srcover_rgba_8888_sse2_lowp+0x894>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -8747,7 +8747,7 @@ _sk_hsl_to_rgb_avx LABEL PROC
DB 197,252,17,28,36 ; vmovups %ymm3,(%rsp)
DB 197,252,40,225 ; vmovaps %ymm1,%ymm4
DB 197,252,40,216 ; vmovaps %ymm0,%ymm3
- DB 196,98,125,24,5,6,173,2,0 ; vbroadcastss 0x2ad06(%rip),%ymm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,5,70,15,2,0 ; vbroadcastss 0x20f46(%rip),%ymm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,60,194,202,2 ; vcmpleps %ymm2,%ymm8,%ymm9
DB 197,92,89,210 ; vmulps %ymm2,%ymm4,%ymm10
DB 196,65,92,92,218 ; vsubps %ymm10,%ymm4,%ymm11
@@ -8755,23 +8755,23 @@ _sk_hsl_to_rgb_avx LABEL PROC
DB 197,52,88,210 ; vaddps %ymm2,%ymm9,%ymm10
DB 197,108,88,202 ; vaddps %ymm2,%ymm2,%ymm9
DB 196,65,52,92,202 ; vsubps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,72,173,2,0 ; vbroadcastss 0x2ad48(%rip),%ymm11 # 34110 <_sk_srcover_rgba_8888_sse2_lowp+0xcdc>
+ DB 196,98,125,24,29,136,15,2,0 ; vbroadcastss 0x20f88(%rip),%ymm11 # 2a350 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
DB 196,65,100,88,219 ; vaddps %ymm11,%ymm3,%ymm11
DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
DB 196,65,36,92,252 ; vsubps %ymm12,%ymm11,%ymm15
DB 196,65,44,92,217 ; vsubps %ymm9,%ymm10,%ymm11
- DB 196,98,125,24,37,26,173,2,0 ; vbroadcastss 0x2ad1a(%rip),%ymm12 # 34100 <_sk_srcover_rgba_8888_sse2_lowp+0xccc>
+ DB 196,98,125,24,37,90,15,2,0 ; vbroadcastss 0x20f5a(%rip),%ymm12 # 2a340 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
DB 196,193,4,89,196 ; vmulps %ymm12,%ymm15,%ymm0
- DB 196,98,125,24,45,20,173,2,0 ; vbroadcastss 0x2ad14(%rip),%ymm13 # 34108 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ DB 196,98,125,24,45,84,15,2,0 ; vbroadcastss 0x20f54(%rip),%ymm13 # 2a348 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
DB 197,20,92,240 ; vsubps %ymm0,%ymm13,%ymm14
DB 196,65,36,89,246 ; vmulps %ymm14,%ymm11,%ymm14
DB 196,65,52,88,246 ; vaddps %ymm14,%ymm9,%ymm14
- DB 196,226,125,24,13,9,173,2,0 ; vbroadcastss 0x2ad09(%rip),%ymm1 # 34114 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ DB 196,226,125,24,13,73,15,2,0 ; vbroadcastss 0x20f49(%rip),%ymm1 # 2a354 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
DB 196,193,116,194,255,2 ; vcmpleps %ymm15,%ymm1,%ymm7
DB 196,195,13,74,249,112 ; vblendvps %ymm7,%ymm9,%ymm14,%ymm7
DB 196,65,60,194,247,2 ; vcmpleps %ymm15,%ymm8,%ymm14
DB 196,227,45,74,255,224 ; vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- DB 196,98,125,24,53,224,172,2,0 ; vbroadcastss 0x2ace0(%rip),%ymm14 # 3410c <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 196,98,125,24,53,32,15,2,0 ; vbroadcastss 0x20f20(%rip),%ymm14 # 2a34c <_sk_srcover_rgba_8888_sse2_lowp+0x894>
DB 196,65,12,194,255,2 ; vcmpleps %ymm15,%ymm14,%ymm15
DB 196,193,124,89,195 ; vmulps %ymm11,%ymm0,%ymm0
DB 197,180,88,192 ; vaddps %ymm0,%ymm9,%ymm0
@@ -8790,7 +8790,7 @@ _sk_hsl_to_rgb_avx LABEL PROC
DB 197,164,89,247 ; vmulps %ymm7,%ymm11,%ymm6
DB 197,180,88,246 ; vaddps %ymm6,%ymm9,%ymm6
DB 196,227,77,74,237,0 ; vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- DB 196,226,125,24,5,138,172,2,0 ; vbroadcastss 0x2ac8a(%rip),%ymm0 # 34118 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ DB 196,226,125,24,5,202,14,2,0 ; vbroadcastss 0x20eca(%rip),%ymm0 # 2a358 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
DB 197,228,88,192 ; vaddps %ymm0,%ymm3,%ymm0
DB 196,227,125,8,216,1 ; vroundps $0x1,%ymm0,%ymm3
DB 197,252,92,195 ; vsubps %ymm3,%ymm0,%ymm0
@@ -8842,13 +8842,13 @@ _sk_scale_u8_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,75 ; jne 959a <_sk_scale_u8_avx+0x63>
DB 196,2,121,48,4,24 ; vpmovzxbw (%r8,%r11,1),%xmm8
- DB 197,57,219,5,3,173,2,0 ; vpand 0x2ad03(%rip),%xmm8,%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,57,219,5,35,15,2,0 ; vpand 0x20f23(%rip),%xmm8,%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,66,121,51,200 ; vpmovzxwd %xmm8,%xmm9
DB 196,65,121,112,192,78 ; vpshufd $0x4e,%xmm8,%xmm8
DB 196,66,121,51,192 ; vpmovzxwd %xmm8,%xmm8
DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,155,171,2,0 ; vbroadcastss 0x2ab9b(%rip),%ymm9 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,13,219,13,2,0 ; vbroadcastss 0x20ddb(%rip),%ymm9 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
@@ -8897,7 +8897,7 @@ _sk_scale_u8_avx LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 233,255,255,255,222 ; jmpq ffffffffdf009644 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd6210>
+ DB 233,255,255,255,222 ; jmpq ffffffffdf009644 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefdfb8c>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,211 ; callq *%rbx
@@ -8924,20 +8924,20 @@ _sk_scale_565_avx LABEL PROC
DB 196,65,121,112,192,78 ; vpshufd $0x4e,%xmm8,%xmm8
DB 196,66,121,51,192 ; vpmovzxwd %xmm8,%xmm8
DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,98,125,24,13,140,170,2,0 ; vbroadcastss 0x2aa8c(%rip),%ymm9 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ DB 196,98,125,24,13,204,12,2,0 ; vbroadcastss 0x20ccc(%rip),%ymm9 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
DB 196,65,60,84,201 ; vandps %ymm9,%ymm8,%ymm9
DB 196,65,124,91,201 ; vcvtdq2ps %ymm9,%ymm9
- DB 196,98,125,24,21,125,170,2,0 ; vbroadcastss 0x2aa7d(%rip),%ymm10 # 34124 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ DB 196,98,125,24,21,189,12,2,0 ; vbroadcastss 0x20cbd(%rip),%ymm10 # 2a364 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,21,115,170,2,0 ; vbroadcastss 0x2aa73(%rip),%ymm10 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ DB 196,98,125,24,21,179,12,2,0 ; vbroadcastss 0x20cb3(%rip),%ymm10 # 2a368 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
DB 196,65,60,84,210 ; vandps %ymm10,%ymm8,%ymm10
DB 196,65,124,91,210 ; vcvtdq2ps %ymm10,%ymm10
- DB 196,98,125,24,29,100,170,2,0 ; vbroadcastss 0x2aa64(%rip),%ymm11 # 3412c <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 196,98,125,24,29,164,12,2,0 ; vbroadcastss 0x20ca4(%rip),%ymm11 # 2a36c <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,29,90,170,2,0 ; vbroadcastss 0x2aa5a(%rip),%ymm11 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ DB 196,98,125,24,29,154,12,2,0 ; vbroadcastss 0x20c9a(%rip),%ymm11 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
DB 196,65,60,84,195 ; vandps %ymm11,%ymm8,%ymm8
DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,29,75,170,2,0 ; vbroadcastss 0x2aa4b(%rip),%ymm11 # 34134 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ DB 196,98,125,24,29,139,12,2,0 ; vbroadcastss 0x20c8b(%rip),%ymm11 # 2a374 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
DB 197,100,194,223,1 ; vcmpltps %ymm7,%ymm3,%ymm11
DB 196,65,44,93,224 ; vminps %ymm8,%ymm10,%ymm12
@@ -9026,13 +9026,13 @@ _sk_lerp_u8_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,111 ; jne 988a <_sk_lerp_u8_avx+0x87>
DB 196,2,121,48,4,24 ; vpmovzxbw (%r8,%r11,1),%xmm8
- DB 197,57,219,5,55,170,2,0 ; vpand 0x2aa37(%rip),%xmm8,%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,57,219,5,87,12,2,0 ; vpand 0x20c57(%rip),%xmm8,%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,66,121,51,200 ; vpmovzxwd %xmm8,%xmm9
DB 196,65,121,112,192,78 ; vpshufd $0x4e,%xmm8,%xmm8
DB 196,66,121,51,192 ; vpmovzxwd %xmm8,%xmm8
DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,207,168,2,0 ; vbroadcastss 0x2a8cf(%rip),%ymm9 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,13,15,11,2,0 ; vbroadcastss 0x20b0f(%rip),%ymm9 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
@@ -9088,7 +9088,7 @@ _sk_lerp_u8_avx LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde009938 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd6504>
+ DB 232,255,255,255,221 ; callq ffffffffde009938 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfdfe80>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,210 ; callq *%rdx
@@ -9115,20 +9115,20 @@ _sk_lerp_565_avx LABEL PROC
DB 196,65,121,112,192,78 ; vpshufd $0x4e,%xmm8,%xmm8
DB 196,66,121,51,192 ; vpmovzxwd %xmm8,%xmm8
DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,98,125,24,13,152,167,2,0 ; vbroadcastss 0x2a798(%rip),%ymm9 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ DB 196,98,125,24,13,216,9,2,0 ; vbroadcastss 0x209d8(%rip),%ymm9 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
DB 196,65,60,84,201 ; vandps %ymm9,%ymm8,%ymm9
DB 196,65,124,91,201 ; vcvtdq2ps %ymm9,%ymm9
- DB 196,98,125,24,21,137,167,2,0 ; vbroadcastss 0x2a789(%rip),%ymm10 # 34124 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ DB 196,98,125,24,21,201,9,2,0 ; vbroadcastss 0x209c9(%rip),%ymm10 # 2a364 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,21,127,167,2,0 ; vbroadcastss 0x2a77f(%rip),%ymm10 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ DB 196,98,125,24,21,191,9,2,0 ; vbroadcastss 0x209bf(%rip),%ymm10 # 2a368 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
DB 196,65,60,84,210 ; vandps %ymm10,%ymm8,%ymm10
DB 196,65,124,91,210 ; vcvtdq2ps %ymm10,%ymm10
- DB 196,98,125,24,29,112,167,2,0 ; vbroadcastss 0x2a770(%rip),%ymm11 # 3412c <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 196,98,125,24,29,176,9,2,0 ; vbroadcastss 0x209b0(%rip),%ymm11 # 2a36c <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,29,102,167,2,0 ; vbroadcastss 0x2a766(%rip),%ymm11 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ DB 196,98,125,24,29,166,9,2,0 ; vbroadcastss 0x209a6(%rip),%ymm11 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
DB 196,65,60,84,195 ; vandps %ymm11,%ymm8,%ymm8
DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,29,87,167,2,0 ; vbroadcastss 0x2a757(%rip),%ymm11 # 34134 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ DB 196,98,125,24,29,151,9,2,0 ; vbroadcastss 0x20997(%rip),%ymm11 # 2a374 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
DB 197,100,194,223,1 ; vcmpltps %ymm7,%ymm3,%ymm11
DB 196,65,44,93,224 ; vminps %ymm8,%ymm10,%ymm12
@@ -9204,7 +9204,7 @@ _sk_load_tables_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,7,2,0,0 ; jne 9cfa <_sk_load_tables_avx+0x21e>
DB 196,65,125,16,20,144 ; vmovupd (%r8,%rdx,4),%ymm10
- DB 197,125,40,13,95,159,2,0 ; vmovapd 0x29f5f(%rip),%ymm9 # 33a60 <_sk_srcover_rgba_8888_sse2_lowp+0x62c>
+ DB 197,125,40,13,255,5,2,0 ; vmovapd 0x205ff(%rip),%ymm9 # 2a100 <_sk_srcover_rgba_8888_sse2_lowp+0x648>
DB 196,193,45,84,201 ; vandpd %ymm9,%ymm10,%ymm1
DB 196,227,125,25,200,1 ; vextractf128 $0x1,%ymm1,%xmm0
DB 196,193,249,126,192 ; vmovq %xmm0,%r8
@@ -9296,7 +9296,7 @@ _sk_load_tables_avx LABEL PROC
DB 196,193,65,114,213,24 ; vpsrld $0x18,%xmm13,%xmm7
DB 196,227,101,24,223,1 ; vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,226,125,24,61,51,164,2,0 ; vbroadcastss 0x2a433(%rip),%ymm7 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,61,115,6,2,0 ; vbroadcastss 0x20673(%rip),%ymm7 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,252,16,60,36 ; vmovups (%rsp),%ymm7
@@ -9383,7 +9383,7 @@ _sk_load_tables_u16_be_avx LABEL PROC
DB 197,177,108,208 ; vpunpcklqdq %xmm0,%xmm9,%xmm2
DB 197,49,109,232 ; vpunpckhqdq %xmm0,%xmm9,%xmm13
DB 196,65,57,108,212 ; vpunpcklqdq %xmm12,%xmm8,%xmm10
- DB 197,121,111,29,29,164,2,0 ; vmovdqa 0x2a41d(%rip),%xmm11 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,121,111,29,61,6,2,0 ; vmovdqa 0x2063d(%rip),%xmm11 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,193,105,219,195 ; vpand %xmm11,%xmm2,%xmm0
DB 197,249,112,208,78 ; vpshufd $0x4e,%xmm0,%xmm2
DB 196,226,121,51,210 ; vpmovzxwd %xmm2,%xmm2
@@ -9477,7 +9477,7 @@ _sk_load_tables_u16_be_avx LABEL PROC
DB 196,226,121,51,219 ; vpmovzxwd %xmm3,%xmm3
DB 196,227,77,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,226,125,24,53,16,161,2,0 ; vbroadcastss 0x2a110(%rip),%ymm6 # 34138 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ DB 196,226,125,24,53,80,3,2,0 ; vbroadcastss 0x20350(%rip),%ymm6 # 2a378 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
DB 197,228,89,222 ; vmulps %ymm6,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,252,16,52,36 ; vmovups (%rsp),%ymm6
@@ -9541,7 +9541,7 @@ _sk_load_tables_rgb_u16_be_avx LABEL PROC
DB 197,105,108,216 ; vpunpcklqdq %xmm0,%xmm2,%xmm11
DB 197,241,108,211 ; vpunpcklqdq %xmm3,%xmm1,%xmm2
DB 197,241,109,203 ; vpunpckhqdq %xmm3,%xmm1,%xmm1
- DB 197,121,111,53,23,161,2,0 ; vmovdqa 0x2a117(%rip),%xmm14 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,121,111,53,55,3,2,0 ; vmovdqa 0x20337(%rip),%xmm14 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,193,105,219,214 ; vpand %xmm14,%xmm2,%xmm2
DB 197,249,112,218,78 ; vpshufd $0x4e,%xmm2,%xmm3
DB 196,226,121,51,219 ; vpmovzxwd %xmm3,%xmm3
@@ -9627,7 +9627,7 @@ _sk_load_tables_rgb_u16_be_avx LABEL PROC
DB 196,227,105,33,215,48 ; vinsertps $0x30,%xmm7,%xmm2,%xmm2
DB 196,227,77,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,164,157,2,0 ; vbroadcastss 0x29da4(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,228,255,1,0 ; vbroadcastss 0x1ffe4(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,16,52,36 ; vmovups (%rsp),%ymm6
DB 197,252,16,124,36,32 ; vmovups 0x20(%rsp),%ymm7
DB 72,131,196,88 ; add $0x58,%rsp
@@ -9697,7 +9697,7 @@ _sk_load_tables_rgb_u16_be_avx LABEL PROC
PUBLIC _sk_byte_tables_avx
_sk_byte_tables_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,138,156,2,0 ; vbroadcastss 0x29c8a(%rip),%ymm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,5,202,254,1,0 ; vbroadcastss 0x1feca(%rip),%ymm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
DB 197,125,91,200 ; vcvtps2dq %ymm0,%ymm9
DB 196,65,249,126,200 ; vmovq %xmm9,%r8
@@ -9832,7 +9832,7 @@ _sk_byte_tables_avx LABEL PROC
DB 196,194,121,49,204 ; vpmovzxbd %xmm12,%xmm1
DB 196,194,121,49,213 ; vpmovzxbd %xmm13,%xmm2
DB 196,227,117,24,202,1 ; vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- DB 196,98,125,24,13,66,154,2,0 ; vbroadcastss 0x29a42(%rip),%ymm9 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,13,130,252,1,0 ; vbroadcastss 0x1fc82(%rip),%ymm9 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
@@ -9958,7 +9958,7 @@ _sk_byte_tables_rgb_avx LABEL PROC
DB 196,194,121,49,203 ; vpmovzxbd %xmm11,%xmm1
DB 196,227,125,24,193,1 ; vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,247,151,2,0 ; vbroadcastss 0x297f7(%rip),%ymm9 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,13,55,250,1,0 ; vbroadcastss 0x1fa37(%rip),%ymm9 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
DB 196,194,121,49,202 ; vpmovzxbd %xmm10,%xmm1
DB 196,194,121,49,212 ; vpmovzxbd %xmm12,%xmm2
@@ -10185,36 +10185,36 @@ _sk_parametric_r_avx LABEL PROC
DB 196,193,124,88,195 ; vaddps %ymm11,%ymm0,%ymm0
DB 196,98,125,24,16 ; vbroadcastss (%rax),%ymm10
DB 197,124,91,216 ; vcvtdq2ps %ymm0,%ymm11
- DB 196,98,125,24,37,136,148,2,0 ; vbroadcastss 0x29488(%rip),%ymm12 # 3413c <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ DB 196,98,125,24,37,200,246,1,0 ; vbroadcastss 0x1f6c8(%rip),%ymm12 # 2a37c <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,126,148,2,0 ; vbroadcastss 0x2947e(%rip),%ymm12 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ DB 196,98,125,24,37,190,246,1,0 ; vbroadcastss 0x1f6be(%rip),%ymm12 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
DB 196,193,124,84,196 ; vandps %ymm12,%ymm0,%ymm0
- DB 196,98,125,24,37,212,147,2,0 ; vbroadcastss 0x293d4(%rip),%ymm12 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,37,20,246,1,0 ; vbroadcastss 0x1f614(%rip),%ymm12 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,193,124,86,196 ; vorps %ymm12,%ymm0,%ymm0
- DB 196,98,125,24,37,102,148,2,0 ; vbroadcastss 0x29466(%rip),%ymm12 # 34144 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ DB 196,98,125,24,37,166,246,1,0 ; vbroadcastss 0x1f6a6(%rip),%ymm12 # 2a384 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,92,148,2,0 ; vbroadcastss 0x2945c(%rip),%ymm12 # 34148 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ DB 196,98,125,24,37,156,246,1,0 ; vbroadcastss 0x1f69c(%rip),%ymm12 # 2a388 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
DB 196,65,124,89,228 ; vmulps %ymm12,%ymm0,%ymm12
DB 196,65,36,92,220 ; vsubps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,77,148,2,0 ; vbroadcastss 0x2944d(%rip),%ymm12 # 3414c <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 196,98,125,24,37,141,246,1,0 ; vbroadcastss 0x1f68d(%rip),%ymm12 # 2a38c <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
DB 196,193,124,88,196 ; vaddps %ymm12,%ymm0,%ymm0
- DB 196,98,125,24,37,67,148,2,0 ; vbroadcastss 0x29443(%rip),%ymm12 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ DB 196,98,125,24,37,131,246,1,0 ; vbroadcastss 0x1f683(%rip),%ymm12 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
DB 197,156,94,192 ; vdivps %ymm0,%ymm12,%ymm0
DB 197,164,92,192 ; vsubps %ymm0,%ymm11,%ymm0
DB 197,172,89,192 ; vmulps %ymm0,%ymm10,%ymm0
DB 196,99,125,8,208,1 ; vroundps $0x1,%ymm0,%ymm10
DB 196,65,124,92,210 ; vsubps %ymm10,%ymm0,%ymm10
- DB 196,98,125,24,29,39,148,2,0 ; vbroadcastss 0x29427(%rip),%ymm11 # 34154 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ DB 196,98,125,24,29,103,246,1,0 ; vbroadcastss 0x1f667(%rip),%ymm11 # 2a394 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
DB 196,193,124,88,195 ; vaddps %ymm11,%ymm0,%ymm0
- DB 196,98,125,24,29,29,148,2,0 ; vbroadcastss 0x2941d(%rip),%ymm11 # 34158 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ DB 196,98,125,24,29,93,246,1,0 ; vbroadcastss 0x1f65d(%rip),%ymm11 # 2a398 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
DB 196,65,44,89,219 ; vmulps %ymm11,%ymm10,%ymm11
DB 196,193,124,92,195 ; vsubps %ymm11,%ymm0,%ymm0
- DB 196,98,125,24,29,14,148,2,0 ; vbroadcastss 0x2940e(%rip),%ymm11 # 3415c <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ DB 196,98,125,24,29,78,246,1,0 ; vbroadcastss 0x1f64e(%rip),%ymm11 # 2a39c <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
DB 196,65,36,92,210 ; vsubps %ymm10,%ymm11,%ymm10
- DB 196,98,125,24,29,4,148,2,0 ; vbroadcastss 0x29404(%rip),%ymm11 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ DB 196,98,125,24,29,68,246,1,0 ; vbroadcastss 0x1f644(%rip),%ymm11 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
DB 196,65,36,94,210 ; vdivps %ymm10,%ymm11,%ymm10
DB 196,193,124,88,194 ; vaddps %ymm10,%ymm0,%ymm0
- DB 196,98,125,24,21,245,147,2,0 ; vbroadcastss 0x293f5(%rip),%ymm10 # 34164 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ DB 196,98,125,24,21,53,246,1,0 ; vbroadcastss 0x1f635(%rip),%ymm10 # 2a3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
DB 196,98,125,24,80,20 ; vbroadcastss 0x14(%rax),%ymm10
@@ -10222,7 +10222,7 @@ _sk_parametric_r_avx LABEL PROC
DB 196,195,125,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm0,%ymm0
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,13,147,2,0 ; vbroadcastss 0x2930d(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,77,245,1,0 ; vbroadcastss 0x1f54d(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -10242,36 +10242,36 @@ _sk_parametric_g_avx LABEL PROC
DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
DB 196,98,125,24,16 ; vbroadcastss (%rax),%ymm10
DB 197,124,91,217 ; vcvtdq2ps %ymm1,%ymm11
- DB 196,98,125,24,37,78,147,2,0 ; vbroadcastss 0x2934e(%rip),%ymm12 # 3413c <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ DB 196,98,125,24,37,142,245,1,0 ; vbroadcastss 0x1f58e(%rip),%ymm12 # 2a37c <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,68,147,2,0 ; vbroadcastss 0x29344(%rip),%ymm12 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ DB 196,98,125,24,37,132,245,1,0 ; vbroadcastss 0x1f584(%rip),%ymm12 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
DB 196,193,116,84,204 ; vandps %ymm12,%ymm1,%ymm1
- DB 196,98,125,24,37,154,146,2,0 ; vbroadcastss 0x2929a(%rip),%ymm12 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,37,218,244,1,0 ; vbroadcastss 0x1f4da(%rip),%ymm12 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,193,116,86,204 ; vorps %ymm12,%ymm1,%ymm1
- DB 196,98,125,24,37,44,147,2,0 ; vbroadcastss 0x2932c(%rip),%ymm12 # 34144 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ DB 196,98,125,24,37,108,245,1,0 ; vbroadcastss 0x1f56c(%rip),%ymm12 # 2a384 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,34,147,2,0 ; vbroadcastss 0x29322(%rip),%ymm12 # 34148 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ DB 196,98,125,24,37,98,245,1,0 ; vbroadcastss 0x1f562(%rip),%ymm12 # 2a388 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
DB 196,65,116,89,228 ; vmulps %ymm12,%ymm1,%ymm12
DB 196,65,36,92,220 ; vsubps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,19,147,2,0 ; vbroadcastss 0x29313(%rip),%ymm12 # 3414c <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 196,98,125,24,37,83,245,1,0 ; vbroadcastss 0x1f553(%rip),%ymm12 # 2a38c <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
DB 196,193,116,88,204 ; vaddps %ymm12,%ymm1,%ymm1
- DB 196,98,125,24,37,9,147,2,0 ; vbroadcastss 0x29309(%rip),%ymm12 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ DB 196,98,125,24,37,73,245,1,0 ; vbroadcastss 0x1f549(%rip),%ymm12 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
DB 197,156,94,201 ; vdivps %ymm1,%ymm12,%ymm1
DB 197,164,92,201 ; vsubps %ymm1,%ymm11,%ymm1
DB 197,172,89,201 ; vmulps %ymm1,%ymm10,%ymm1
DB 196,99,125,8,209,1 ; vroundps $0x1,%ymm1,%ymm10
DB 196,65,116,92,210 ; vsubps %ymm10,%ymm1,%ymm10
- DB 196,98,125,24,29,237,146,2,0 ; vbroadcastss 0x292ed(%rip),%ymm11 # 34154 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ DB 196,98,125,24,29,45,245,1,0 ; vbroadcastss 0x1f52d(%rip),%ymm11 # 2a394 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 196,98,125,24,29,227,146,2,0 ; vbroadcastss 0x292e3(%rip),%ymm11 # 34158 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ DB 196,98,125,24,29,35,245,1,0 ; vbroadcastss 0x1f523(%rip),%ymm11 # 2a398 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
DB 196,65,44,89,219 ; vmulps %ymm11,%ymm10,%ymm11
DB 196,193,116,92,203 ; vsubps %ymm11,%ymm1,%ymm1
- DB 196,98,125,24,29,212,146,2,0 ; vbroadcastss 0x292d4(%rip),%ymm11 # 3415c <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ DB 196,98,125,24,29,20,245,1,0 ; vbroadcastss 0x1f514(%rip),%ymm11 # 2a39c <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
DB 196,65,36,92,210 ; vsubps %ymm10,%ymm11,%ymm10
- DB 196,98,125,24,29,202,146,2,0 ; vbroadcastss 0x292ca(%rip),%ymm11 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ DB 196,98,125,24,29,10,245,1,0 ; vbroadcastss 0x1f50a(%rip),%ymm11 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
DB 196,65,36,94,210 ; vdivps %ymm10,%ymm11,%ymm10
DB 196,193,116,88,202 ; vaddps %ymm10,%ymm1,%ymm1
- DB 196,98,125,24,21,187,146,2,0 ; vbroadcastss 0x292bb(%rip),%ymm10 # 34164 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ DB 196,98,125,24,21,251,244,1,0 ; vbroadcastss 0x1f4fb(%rip),%ymm10 # 2a3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
DB 196,193,116,89,202 ; vmulps %ymm10,%ymm1,%ymm1
DB 197,253,91,201 ; vcvtps2dq %ymm1,%ymm1
DB 196,98,125,24,80,20 ; vbroadcastss 0x14(%rax),%ymm10
@@ -10279,7 +10279,7 @@ _sk_parametric_g_avx LABEL PROC
DB 196,195,117,74,201,128 ; vblendvps %ymm8,%ymm9,%ymm1,%ymm1
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 196,193,116,95,200 ; vmaxps %ymm8,%ymm1,%ymm1
- DB 196,98,125,24,5,211,145,2,0 ; vbroadcastss 0x291d3(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,19,244,1,0 ; vbroadcastss 0x1f413(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -10299,36 +10299,36 @@ _sk_parametric_b_avx LABEL PROC
DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
DB 196,98,125,24,16 ; vbroadcastss (%rax),%ymm10
DB 197,124,91,218 ; vcvtdq2ps %ymm2,%ymm11
- DB 196,98,125,24,37,20,146,2,0 ; vbroadcastss 0x29214(%rip),%ymm12 # 3413c <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ DB 196,98,125,24,37,84,244,1,0 ; vbroadcastss 0x1f454(%rip),%ymm12 # 2a37c <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,10,146,2,0 ; vbroadcastss 0x2920a(%rip),%ymm12 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ DB 196,98,125,24,37,74,244,1,0 ; vbroadcastss 0x1f44a(%rip),%ymm12 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
DB 196,193,108,84,212 ; vandps %ymm12,%ymm2,%ymm2
- DB 196,98,125,24,37,96,145,2,0 ; vbroadcastss 0x29160(%rip),%ymm12 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,37,160,243,1,0 ; vbroadcastss 0x1f3a0(%rip),%ymm12 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,193,108,86,212 ; vorps %ymm12,%ymm2,%ymm2
- DB 196,98,125,24,37,242,145,2,0 ; vbroadcastss 0x291f2(%rip),%ymm12 # 34144 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ DB 196,98,125,24,37,50,244,1,0 ; vbroadcastss 0x1f432(%rip),%ymm12 # 2a384 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,232,145,2,0 ; vbroadcastss 0x291e8(%rip),%ymm12 # 34148 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ DB 196,98,125,24,37,40,244,1,0 ; vbroadcastss 0x1f428(%rip),%ymm12 # 2a388 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
DB 196,65,108,89,228 ; vmulps %ymm12,%ymm2,%ymm12
DB 196,65,36,92,220 ; vsubps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,217,145,2,0 ; vbroadcastss 0x291d9(%rip),%ymm12 # 3414c <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 196,98,125,24,37,25,244,1,0 ; vbroadcastss 0x1f419(%rip),%ymm12 # 2a38c <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
DB 196,193,108,88,212 ; vaddps %ymm12,%ymm2,%ymm2
- DB 196,98,125,24,37,207,145,2,0 ; vbroadcastss 0x291cf(%rip),%ymm12 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ DB 196,98,125,24,37,15,244,1,0 ; vbroadcastss 0x1f40f(%rip),%ymm12 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
DB 197,156,94,210 ; vdivps %ymm2,%ymm12,%ymm2
DB 197,164,92,210 ; vsubps %ymm2,%ymm11,%ymm2
DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
DB 196,99,125,8,210,1 ; vroundps $0x1,%ymm2,%ymm10
DB 196,65,108,92,210 ; vsubps %ymm10,%ymm2,%ymm10
- DB 196,98,125,24,29,179,145,2,0 ; vbroadcastss 0x291b3(%rip),%ymm11 # 34154 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ DB 196,98,125,24,29,243,243,1,0 ; vbroadcastss 0x1f3f3(%rip),%ymm11 # 2a394 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
- DB 196,98,125,24,29,169,145,2,0 ; vbroadcastss 0x291a9(%rip),%ymm11 # 34158 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ DB 196,98,125,24,29,233,243,1,0 ; vbroadcastss 0x1f3e9(%rip),%ymm11 # 2a398 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
DB 196,65,44,89,219 ; vmulps %ymm11,%ymm10,%ymm11
DB 196,193,108,92,211 ; vsubps %ymm11,%ymm2,%ymm2
- DB 196,98,125,24,29,154,145,2,0 ; vbroadcastss 0x2919a(%rip),%ymm11 # 3415c <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ DB 196,98,125,24,29,218,243,1,0 ; vbroadcastss 0x1f3da(%rip),%ymm11 # 2a39c <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
DB 196,65,36,92,210 ; vsubps %ymm10,%ymm11,%ymm10
- DB 196,98,125,24,29,144,145,2,0 ; vbroadcastss 0x29190(%rip),%ymm11 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ DB 196,98,125,24,29,208,243,1,0 ; vbroadcastss 0x1f3d0(%rip),%ymm11 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
DB 196,65,36,94,210 ; vdivps %ymm10,%ymm11,%ymm10
DB 196,193,108,88,210 ; vaddps %ymm10,%ymm2,%ymm2
- DB 196,98,125,24,21,129,145,2,0 ; vbroadcastss 0x29181(%rip),%ymm10 # 34164 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ DB 196,98,125,24,21,193,243,1,0 ; vbroadcastss 0x1f3c1(%rip),%ymm10 # 2a3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
DB 196,193,108,89,210 ; vmulps %ymm10,%ymm2,%ymm2
DB 197,253,91,210 ; vcvtps2dq %ymm2,%ymm2
DB 196,98,125,24,80,20 ; vbroadcastss 0x14(%rax),%ymm10
@@ -10336,7 +10336,7 @@ _sk_parametric_b_avx LABEL PROC
DB 196,195,109,74,209,128 ; vblendvps %ymm8,%ymm9,%ymm2,%ymm2
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 196,193,108,95,208 ; vmaxps %ymm8,%ymm2,%ymm2
- DB 196,98,125,24,5,153,144,2,0 ; vbroadcastss 0x29099(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,217,242,1,0 ; vbroadcastss 0x1f2d9(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -10356,36 +10356,36 @@ _sk_parametric_a_avx LABEL PROC
DB 196,193,100,88,219 ; vaddps %ymm11,%ymm3,%ymm3
DB 196,98,125,24,16 ; vbroadcastss (%rax),%ymm10
DB 197,124,91,219 ; vcvtdq2ps %ymm3,%ymm11
- DB 196,98,125,24,37,218,144,2,0 ; vbroadcastss 0x290da(%rip),%ymm12 # 3413c <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ DB 196,98,125,24,37,26,243,1,0 ; vbroadcastss 0x1f31a(%rip),%ymm12 # 2a37c <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,208,144,2,0 ; vbroadcastss 0x290d0(%rip),%ymm12 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ DB 196,98,125,24,37,16,243,1,0 ; vbroadcastss 0x1f310(%rip),%ymm12 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
DB 196,193,100,84,220 ; vandps %ymm12,%ymm3,%ymm3
- DB 196,98,125,24,37,38,144,2,0 ; vbroadcastss 0x29026(%rip),%ymm12 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,37,102,242,1,0 ; vbroadcastss 0x1f266(%rip),%ymm12 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,193,100,86,220 ; vorps %ymm12,%ymm3,%ymm3
- DB 196,98,125,24,37,184,144,2,0 ; vbroadcastss 0x290b8(%rip),%ymm12 # 34144 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ DB 196,98,125,24,37,248,242,1,0 ; vbroadcastss 0x1f2f8(%rip),%ymm12 # 2a384 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,174,144,2,0 ; vbroadcastss 0x290ae(%rip),%ymm12 # 34148 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ DB 196,98,125,24,37,238,242,1,0 ; vbroadcastss 0x1f2ee(%rip),%ymm12 # 2a388 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
DB 196,65,100,89,228 ; vmulps %ymm12,%ymm3,%ymm12
DB 196,65,36,92,220 ; vsubps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,159,144,2,0 ; vbroadcastss 0x2909f(%rip),%ymm12 # 3414c <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 196,98,125,24,37,223,242,1,0 ; vbroadcastss 0x1f2df(%rip),%ymm12 # 2a38c <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
DB 196,193,100,88,220 ; vaddps %ymm12,%ymm3,%ymm3
- DB 196,98,125,24,37,149,144,2,0 ; vbroadcastss 0x29095(%rip),%ymm12 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ DB 196,98,125,24,37,213,242,1,0 ; vbroadcastss 0x1f2d5(%rip),%ymm12 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
DB 197,156,94,219 ; vdivps %ymm3,%ymm12,%ymm3
DB 197,164,92,219 ; vsubps %ymm3,%ymm11,%ymm3
DB 197,172,89,219 ; vmulps %ymm3,%ymm10,%ymm3
DB 196,99,125,8,211,1 ; vroundps $0x1,%ymm3,%ymm10
DB 196,65,100,92,210 ; vsubps %ymm10,%ymm3,%ymm10
- DB 196,98,125,24,29,121,144,2,0 ; vbroadcastss 0x29079(%rip),%ymm11 # 34154 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ DB 196,98,125,24,29,185,242,1,0 ; vbroadcastss 0x1f2b9(%rip),%ymm11 # 2a394 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
DB 196,193,100,88,219 ; vaddps %ymm11,%ymm3,%ymm3
- DB 196,98,125,24,29,111,144,2,0 ; vbroadcastss 0x2906f(%rip),%ymm11 # 34158 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ DB 196,98,125,24,29,175,242,1,0 ; vbroadcastss 0x1f2af(%rip),%ymm11 # 2a398 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
DB 196,65,44,89,219 ; vmulps %ymm11,%ymm10,%ymm11
DB 196,193,100,92,219 ; vsubps %ymm11,%ymm3,%ymm3
- DB 196,98,125,24,29,96,144,2,0 ; vbroadcastss 0x29060(%rip),%ymm11 # 3415c <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ DB 196,98,125,24,29,160,242,1,0 ; vbroadcastss 0x1f2a0(%rip),%ymm11 # 2a39c <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
DB 196,65,36,92,210 ; vsubps %ymm10,%ymm11,%ymm10
- DB 196,98,125,24,29,86,144,2,0 ; vbroadcastss 0x29056(%rip),%ymm11 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ DB 196,98,125,24,29,150,242,1,0 ; vbroadcastss 0x1f296(%rip),%ymm11 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
DB 196,65,36,94,210 ; vdivps %ymm10,%ymm11,%ymm10
DB 196,193,100,88,218 ; vaddps %ymm10,%ymm3,%ymm3
- DB 196,98,125,24,21,71,144,2,0 ; vbroadcastss 0x29047(%rip),%ymm10 # 34164 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ DB 196,98,125,24,21,135,242,1,0 ; vbroadcastss 0x1f287(%rip),%ymm10 # 2a3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
DB 196,193,100,89,218 ; vmulps %ymm10,%ymm3,%ymm3
DB 197,253,91,219 ; vcvtps2dq %ymm3,%ymm3
DB 196,98,125,24,80,20 ; vbroadcastss 0x14(%rax),%ymm10
@@ -10393,7 +10393,7 @@ _sk_parametric_a_avx LABEL PROC
DB 196,195,101,74,217,128 ; vblendvps %ymm8,%ymm9,%ymm3,%ymm3
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 196,193,100,95,216 ; vmaxps %ymm8,%ymm3,%ymm3
- DB 196,98,125,24,5,95,143,2,0 ; vbroadcastss 0x28f5f(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,159,241,1,0 ; vbroadcastss 0x1f19f(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -10410,34 +10410,34 @@ _sk_gamma_avx LABEL PROC
DB 197,252,40,233 ; vmovaps %ymm1,%ymm5
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,252,91,200 ; vcvtdq2ps %ymm0,%ymm1
- DB 196,98,125,24,5,168,143,2,0 ; vbroadcastss 0x28fa8(%rip),%ymm8 # 3413c <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
+ DB 196,98,125,24,5,232,241,1,0 ; vbroadcastss 0x1f1e8(%rip),%ymm8 # 2a37c <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,98,125,24,13,158,143,2,0 ; vbroadcastss 0x28f9e(%rip),%ymm9 # 34140 <_sk_srcover_rgba_8888_sse2_lowp+0xd0c>
+ DB 196,98,125,24,13,222,241,1,0 ; vbroadcastss 0x1f1de(%rip),%ymm9 # 2a380 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
DB 196,193,124,84,193 ; vandps %ymm9,%ymm0,%ymm0
- DB 196,226,125,24,37,244,142,2,0 ; vbroadcastss 0x28ef4(%rip),%ymm4 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,226,125,24,37,52,241,1,0 ; vbroadcastss 0x1f134(%rip),%ymm4 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,252,86,196 ; vorps %ymm4,%ymm0,%ymm0
- DB 196,98,125,24,21,135,143,2,0 ; vbroadcastss 0x28f87(%rip),%ymm10 # 34144 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ DB 196,98,125,24,21,199,241,1,0 ; vbroadcastss 0x1f1c7(%rip),%ymm10 # 2a384 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
DB 196,193,116,88,202 ; vaddps %ymm10,%ymm1,%ymm1
- DB 196,98,125,24,29,125,143,2,0 ; vbroadcastss 0x28f7d(%rip),%ymm11 # 34148 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ DB 196,98,125,24,29,189,241,1,0 ; vbroadcastss 0x1f1bd(%rip),%ymm11 # 2a388 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
DB 196,193,124,89,211 ; vmulps %ymm11,%ymm0,%ymm2
DB 197,244,92,202 ; vsubps %ymm2,%ymm1,%ymm1
- DB 196,98,125,24,37,111,143,2,0 ; vbroadcastss 0x28f6f(%rip),%ymm12 # 3414c <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 196,98,125,24,37,175,241,1,0 ; vbroadcastss 0x1f1af(%rip),%ymm12 # 2a38c <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
DB 196,193,124,88,196 ; vaddps %ymm12,%ymm0,%ymm0
- DB 196,98,125,24,45,101,143,2,0 ; vbroadcastss 0x28f65(%rip),%ymm13 # 34150 <_sk_srcover_rgba_8888_sse2_lowp+0xd1c>
+ DB 196,98,125,24,45,165,241,1,0 ; vbroadcastss 0x1f1a5(%rip),%ymm13 # 2a390 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
DB 197,148,94,192 ; vdivps %ymm0,%ymm13,%ymm0
DB 197,244,92,192 ; vsubps %ymm0,%ymm1,%ymm0
DB 196,98,125,24,48 ; vbroadcastss (%rax),%ymm14
DB 196,193,124,89,198 ; vmulps %ymm14,%ymm0,%ymm0
DB 196,227,125,8,200,1 ; vroundps $0x1,%ymm0,%ymm1
DB 197,252,92,241 ; vsubps %ymm1,%ymm0,%ymm6
- DB 196,98,125,24,61,68,143,2,0 ; vbroadcastss 0x28f44(%rip),%ymm15 # 34154 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ DB 196,98,125,24,61,132,241,1,0 ; vbroadcastss 0x1f184(%rip),%ymm15 # 2a394 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
DB 196,193,124,88,199 ; vaddps %ymm15,%ymm0,%ymm0
- DB 196,226,125,24,29,58,143,2,0 ; vbroadcastss 0x28f3a(%rip),%ymm3 # 34158 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ DB 196,226,125,24,29,122,241,1,0 ; vbroadcastss 0x1f17a(%rip),%ymm3 # 2a398 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
DB 197,204,89,203 ; vmulps %ymm3,%ymm6,%ymm1
DB 197,252,92,201 ; vsubps %ymm1,%ymm0,%ymm1
- DB 196,226,125,24,21,45,143,2,0 ; vbroadcastss 0x28f2d(%rip),%ymm2 # 3415c <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
+ DB 196,226,125,24,21,109,241,1,0 ; vbroadcastss 0x1f16d(%rip),%ymm2 # 2a39c <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
DB 197,236,92,198 ; vsubps %ymm6,%ymm2,%ymm0
- DB 196,226,125,24,53,36,143,2,0 ; vbroadcastss 0x28f24(%rip),%ymm6 # 34160 <_sk_srcover_rgba_8888_sse2_lowp+0xd2c>
+ DB 196,226,125,24,53,100,241,1,0 ; vbroadcastss 0x1f164(%rip),%ymm6 # 2a3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
DB 197,204,94,192 ; vdivps %ymm0,%ymm6,%ymm0
DB 197,244,88,192 ; vaddps %ymm0,%ymm1,%ymm0
DB 197,252,17,4,36 ; vmovups %ymm0,(%rsp)
@@ -10479,7 +10479,7 @@ _sk_gamma_avx LABEL PROC
DB 197,236,92,212 ; vsubps %ymm4,%ymm2,%ymm2
DB 197,204,94,210 ; vdivps %ymm2,%ymm6,%ymm2
DB 197,244,88,202 ; vaddps %ymm2,%ymm1,%ymm1
- DB 196,226,125,24,21,104,142,2,0 ; vbroadcastss 0x28e68(%rip),%ymm2 # 34164 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ DB 196,226,125,24,21,168,240,1,0 ; vbroadcastss 0x1f0a8(%rip),%ymm2 # 2a3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
DB 197,236,89,28,36 ; vmulps (%rsp),%ymm2,%ymm3
DB 197,252,89,226 ; vmulps %ymm2,%ymm0,%ymm4
DB 197,244,89,210 ; vmulps %ymm2,%ymm1,%ymm2
@@ -10497,31 +10497,31 @@ _sk_gamma_avx LABEL PROC
PUBLIC _sk_lab_to_xyz_avx
_sk_lab_to_xyz_avx LABEL PROC
- DB 196,98,125,24,5,27,142,2,0 ; vbroadcastss 0x28e1b(%rip),%ymm8 # 34168 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ DB 196,98,125,24,5,91,240,1,0 ; vbroadcastss 0x1f05b(%rip),%ymm8 # 2a3a8 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,121,141,2,0 ; vbroadcastss 0x28d79(%rip),%ymm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,5,185,239,1,0 ; vbroadcastss 0x1efb9(%rip),%ymm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,98,125,24,13,3,142,2,0 ; vbroadcastss 0x28e03(%rip),%ymm9 # 3416c <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ DB 196,98,125,24,13,67,240,1,0 ; vbroadcastss 0x1f043(%rip),%ymm9 # 2a3ac <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
DB 196,193,116,88,201 ; vaddps %ymm9,%ymm1,%ymm1
DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
DB 196,193,108,88,209 ; vaddps %ymm9,%ymm2,%ymm2
- DB 196,98,125,24,5,239,141,2,0 ; vbroadcastss 0x28def(%rip),%ymm8 # 34170 <_sk_srcover_rgba_8888_sse2_lowp+0xd3c>
+ DB 196,98,125,24,5,47,240,1,0 ; vbroadcastss 0x1f02f(%rip),%ymm8 # 2a3b0 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,229,141,2,0 ; vbroadcastss 0x28de5(%rip),%ymm8 # 34174 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ DB 196,98,125,24,5,37,240,1,0 ; vbroadcastss 0x1f025(%rip),%ymm8 # 2a3b4 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,219,141,2,0 ; vbroadcastss 0x28ddb(%rip),%ymm8 # 34178 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ DB 196,98,125,24,5,27,240,1,0 ; vbroadcastss 0x1f01b(%rip),%ymm8 # 2a3b8 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
DB 197,252,88,201 ; vaddps %ymm1,%ymm0,%ymm1
- DB 196,98,125,24,5,205,141,2,0 ; vbroadcastss 0x28dcd(%rip),%ymm8 # 3417c <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
+ DB 196,98,125,24,5,13,240,1,0 ; vbroadcastss 0x1f00d(%rip),%ymm8 # 2a3bc <_sk_srcover_rgba_8888_sse2_lowp+0x904>
DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
DB 197,252,92,210 ; vsubps %ymm2,%ymm0,%ymm2
DB 197,116,89,193 ; vmulps %ymm1,%ymm1,%ymm8
DB 196,65,116,89,192 ; vmulps %ymm8,%ymm1,%ymm8
- DB 196,98,125,24,13,182,141,2,0 ; vbroadcastss 0x28db6(%rip),%ymm9 # 34180 <_sk_srcover_rgba_8888_sse2_lowp+0xd4c>
+ DB 196,98,125,24,13,246,239,1,0 ; vbroadcastss 0x1eff6(%rip),%ymm9 # 2a3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
DB 196,65,52,194,208,1 ; vcmpltps %ymm8,%ymm9,%ymm10
- DB 196,98,125,24,29,171,141,2,0 ; vbroadcastss 0x28dab(%rip),%ymm11 # 34184 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ DB 196,98,125,24,29,235,239,1,0 ; vbroadcastss 0x1efeb(%rip),%ymm11 # 2a3c4 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 196,98,125,24,37,161,141,2,0 ; vbroadcastss 0x28da1(%rip),%ymm12 # 34188 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ DB 196,98,125,24,37,225,239,1,0 ; vbroadcastss 0x1efe1(%rip),%ymm12 # 2a3c8 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
DB 196,193,116,89,204 ; vmulps %ymm12,%ymm1,%ymm1
DB 196,67,117,74,192,160 ; vblendvps %ymm10,%ymm8,%ymm1,%ymm8
DB 197,252,89,200 ; vmulps %ymm0,%ymm0,%ymm1
@@ -10536,9 +10536,9 @@ _sk_lab_to_xyz_avx LABEL PROC
DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
DB 196,193,108,89,212 ; vmulps %ymm12,%ymm2,%ymm2
DB 196,227,109,74,208,144 ; vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- DB 196,226,125,24,5,87,141,2,0 ; vbroadcastss 0x28d57(%rip),%ymm0 # 3418c <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
+ DB 196,226,125,24,5,151,239,1,0 ; vbroadcastss 0x1ef97(%rip),%ymm0 # 2a3cc <_sk_srcover_rgba_8888_sse2_lowp+0x914>
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,78,141,2,0 ; vbroadcastss 0x28d4e(%rip),%ymm8 # 34190 <_sk_srcover_rgba_8888_sse2_lowp+0xd5c>
+ DB 196,98,125,24,5,142,239,1,0 ; vbroadcastss 0x1ef8e(%rip),%ymm8 # 2a3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -10554,13 +10554,13 @@ _sk_load_a8_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,68 ; jne b4a7 <_sk_load_a8_avx+0x5c>
DB 196,130,121,48,4,24 ; vpmovzxbw (%r8,%r11,1),%xmm0
- DB 197,249,219,5,239,141,2,0 ; vpand 0x28def(%rip),%xmm0,%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,249,219,5,15,240,1,0 ; vpand 0x1f00f(%rip),%xmm0,%xmm0 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,137,140,2,0 ; vbroadcastss 0x28c89(%rip),%ymm1 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,13,201,238,1,0 ; vbroadcastss 0x1eec9(%rip),%ymm1 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,252,89,217 ; vmulps %ymm1,%ymm0,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
@@ -10632,13 +10632,13 @@ _sk_load_a8_dst_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,68 ; jne b5b8 <_sk_load_a8_dst_avx+0x5c>
DB 196,130,121,48,36,24 ; vpmovzxbw (%r8,%r11,1),%xmm4
- DB 197,217,219,37,222,140,2,0 ; vpand 0x28cde(%rip),%xmm4,%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,217,219,37,254,238,1,0 ; vpand 0x1eefe(%rip),%xmm4,%xmm4 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,226,121,51,236 ; vpmovzxwd %xmm4,%xmm5
DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
DB 196,226,121,51,228 ; vpmovzxwd %xmm4,%xmm4
DB 196,227,85,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,120,139,2,0 ; vbroadcastss 0x28b78(%rip),%ymm5 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,45,184,237,1,0 ; vbroadcastss 0x1edb8(%rip),%ymm5 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,220,89,253 ; vmulps %ymm5,%ymm4,%ymm7
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
@@ -10686,7 +10686,7 @@ _sk_load_a8_dst_avx LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde00b660 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd822c>
+ DB 232,255,255,255,221 ; callq ffffffffde00b660 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe1ba8>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,210 ; callq *%rdx
@@ -10748,7 +10748,7 @@ _sk_gather_a8_avx LABEL PROC
DB 196,226,121,49,201 ; vpmovzxbd %xmm1,%xmm1
DB 196,227,125,24,193,1 ; vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,208,137,2,0 ; vbroadcastss 0x289d0(%rip),%ymm1 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,13,16,236,1,0 ; vbroadcastss 0x1ec10(%rip),%ymm1 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,252,89,217 ; vmulps %ymm1,%ymm0,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
@@ -10769,7 +10769,7 @@ _sk_store_a8_avx LABEL PROC
DB 77,15,175,193 ; imul %r9,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,218 ; movslq %edx,%r11
- DB 196,98,125,24,5,80,137,2,0 ; vbroadcastss 0x28950(%rip),%ymm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,5,144,235,1,0 ; vbroadcastss 0x1eb90(%rip),%ymm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,65,100,89,192 ; vmulps %ymm8,%ymm3,%ymm8
DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
@@ -10794,13 +10794,13 @@ _sk_store_a8_avx LABEL PROC
DB 196,3,121,20,4,24,0 ; vpextrb $0x0,%xmm8,(%r8,%r11,1)
DB 235,202 ; jmp b7a8 <_sk_store_a8_avx+0x40>
DB 196,3,121,20,68,24,2,4 ; vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- DB 196,98,57,0,5,129,138,2,0 ; vpshufb 0x28a81(%rip),%xmm8,%xmm8 # 34270 <_sk_srcover_rgba_8888_sse2_lowp+0xe3c>
+ DB 196,98,57,0,5,161,236,1,0 ; vpshufb 0x1eca1(%rip),%xmm8,%xmm8 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
DB 196,3,121,21,4,24,0 ; vpextrw $0x0,%xmm8,(%r8,%r11,1)
DB 235,176 ; jmp b7a8 <_sk_store_a8_avx+0x40>
DB 196,3,121,20,68,24,6,12 ; vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
DB 196,3,121,20,68,24,5,10 ; vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
DB 196,3,121,20,68,24,4,8 ; vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- DB 196,98,57,0,5,103,138,2,0 ; vpshufb 0x28a67(%rip),%xmm8,%xmm8 # 34280 <_sk_srcover_rgba_8888_sse2_lowp+0xe4c>
+ DB 196,98,57,0,5,135,236,1,0 ; vpshufb 0x1ec87(%rip),%xmm8,%xmm8 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
DB 196,1,121,126,4,24 ; vmovd %xmm8,(%r8,%r11,1)
DB 235,135 ; jmp b7a8 <_sk_store_a8_avx+0x40>
DB 15,31,0 ; nopl (%rax)
@@ -10835,16 +10835,16 @@ _sk_load_g8_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,73 ; jne b8a1 <_sk_load_g8_avx+0x61>
DB 196,130,121,48,4,24 ; vpmovzxbw (%r8,%r11,1),%xmm0
- DB 197,249,219,5,250,137,2,0 ; vpand 0x289fa(%rip),%xmm0,%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,249,219,5,26,236,1,0 ; vpand 0x1ec1a(%rip),%xmm0,%xmm0 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,148,136,2,0 ; vbroadcastss 0x28894(%rip),%ymm1 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,13,212,234,1,0 ; vbroadcastss 0x1ead4(%rip),%ymm1 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,17,136,2,0 ; vbroadcastss 0x28811(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,81,234,1,0 ; vbroadcastss 0x1ea51(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
DB 255,224 ; jmpq *%rax
@@ -10889,7 +10889,7 @@ _sk_load_g8_avx LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 233,255,255,255,222 ; jmpq ffffffffdf00b948 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8514>
+ DB 233,255,255,255,222 ; jmpq ffffffffdf00b948 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe1e90>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,211 ; callq *%rbx
@@ -10911,16 +10911,16 @@ _sk_load_g8_dst_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,73 ; jne b9b5 <_sk_load_g8_dst_avx+0x61>
DB 196,130,121,48,36,24 ; vpmovzxbw (%r8,%r11,1),%xmm4
- DB 197,217,219,37,230,136,2,0 ; vpand 0x288e6(%rip),%xmm4,%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 197,217,219,37,6,235,1,0 ; vpand 0x1eb06(%rip),%xmm4,%xmm4 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 196,226,121,51,236 ; vpmovzxwd %xmm4,%xmm5
DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
DB 196,226,121,51,228 ; vpmovzxwd %xmm4,%xmm4
DB 196,227,85,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,128,135,2,0 ; vbroadcastss 0x28780(%rip),%ymm5 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,45,192,233,1,0 ; vbroadcastss 0x1e9c0(%rip),%ymm5 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,61,253,134,2,0 ; vbroadcastss 0x286fd(%rip),%ymm7 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,61,61,233,1,0 ; vbroadcastss 0x1e93d(%rip),%ymm7 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,40,236 ; vmovaps %ymm4,%ymm5
DB 197,252,40,244 ; vmovaps %ymm4,%ymm6
DB 255,224 ; jmpq *%rax
@@ -10965,7 +10965,7 @@ _sk_load_g8_dst_avx LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 233,255,255,255,222 ; jmpq ffffffffdf00ba5c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8628>
+ DB 233,255,255,255,222 ; jmpq ffffffffdf00ba5c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe1fa4>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,211 ; callq *%rbx
@@ -11027,10 +11027,10 @@ _sk_gather_g8_avx LABEL PROC
DB 196,226,121,49,201 ; vpmovzxbd %xmm1,%xmm1
DB 196,227,125,24,193,1 ; vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,212,133,2,0 ; vbroadcastss 0x285d4(%rip),%ymm1 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,226,125,24,13,20,232,1,0 ; vbroadcastss 0x1e814(%rip),%ymm1 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,81,133,2,0 ; vbroadcastss 0x28551(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,145,231,1,0 ; vbroadcastss 0x1e791(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
DB 91 ; pop %rbx
@@ -11056,23 +11056,23 @@ _sk_load_565_avx LABEL PROC
DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
DB 196,227,117,24,208,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- DB 196,226,125,24,5,116,133,2,0 ; vbroadcastss 0x28574(%rip),%ymm0 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ DB 196,226,125,24,5,180,231,1,0 ; vbroadcastss 0x1e7b4(%rip),%ymm0 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
DB 197,236,84,192 ; vandps %ymm0,%ymm2,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,103,133,2,0 ; vbroadcastss 0x28567(%rip),%ymm1 # 34124 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ DB 196,226,125,24,13,167,231,1,0 ; vbroadcastss 0x1e7a7(%rip),%ymm1 # 2a364 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,24,13,94,133,2,0 ; vbroadcastss 0x2855e(%rip),%ymm1 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ DB 196,226,125,24,13,158,231,1,0 ; vbroadcastss 0x1e79e(%rip),%ymm1 # 2a368 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
DB 197,236,84,201 ; vandps %ymm1,%ymm2,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,29,81,133,2,0 ; vbroadcastss 0x28551(%rip),%ymm3 # 3412c <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 196,226,125,24,29,145,231,1,0 ; vbroadcastss 0x1e791(%rip),%ymm3 # 2a36c <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 196,226,125,24,29,72,133,2,0 ; vbroadcastss 0x28548(%rip),%ymm3 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ DB 196,226,125,24,29,136,231,1,0 ; vbroadcastss 0x1e788(%rip),%ymm3 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
DB 197,236,84,211 ; vandps %ymm3,%ymm2,%ymm2
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,226,125,24,29,59,133,2,0 ; vbroadcastss 0x2853b(%rip),%ymm3 # 34134 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ DB 196,226,125,24,29,123,231,1,0 ; vbroadcastss 0x1e77b(%rip),%ymm3 # 2a374 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,160,132,2,0 ; vbroadcastss 0x284a0(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,224,230,1,0 ; vbroadcastss 0x1e6e0(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
DB 65,128,225,7 ; and $0x7,%r9b
@@ -11136,23 +11136,23 @@ _sk_load_565_dst_avx LABEL PROC
DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
DB 196,226,121,51,228 ; vpmovzxwd %xmm4,%xmm4
DB 196,227,85,24,244,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- DB 196,226,125,24,37,49,132,2,0 ; vbroadcastss 0x28431(%rip),%ymm4 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ DB 196,226,125,24,37,113,230,1,0 ; vbroadcastss 0x1e671(%rip),%ymm4 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
DB 197,204,84,228 ; vandps %ymm4,%ymm6,%ymm4
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,36,132,2,0 ; vbroadcastss 0x28424(%rip),%ymm5 # 34124 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ DB 196,226,125,24,45,100,230,1,0 ; vbroadcastss 0x1e664(%rip),%ymm5 # 2a364 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
- DB 196,226,125,24,45,27,132,2,0 ; vbroadcastss 0x2841b(%rip),%ymm5 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ DB 196,226,125,24,45,91,230,1,0 ; vbroadcastss 0x1e65b(%rip),%ymm5 # 2a368 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
DB 197,204,84,237 ; vandps %ymm5,%ymm6,%ymm5
DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,226,125,24,61,14,132,2,0 ; vbroadcastss 0x2840e(%rip),%ymm7 # 3412c <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 196,226,125,24,61,78,230,1,0 ; vbroadcastss 0x1e64e(%rip),%ymm7 # 2a36c <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
DB 197,212,89,239 ; vmulps %ymm7,%ymm5,%ymm5
- DB 196,226,125,24,61,5,132,2,0 ; vbroadcastss 0x28405(%rip),%ymm7 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ DB 196,226,125,24,61,69,230,1,0 ; vbroadcastss 0x1e645(%rip),%ymm7 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
DB 197,204,84,247 ; vandps %ymm7,%ymm6,%ymm6
DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,226,125,24,61,248,131,2,0 ; vbroadcastss 0x283f8(%rip),%ymm7 # 34134 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ DB 196,226,125,24,61,56,230,1,0 ; vbroadcastss 0x1e638(%rip),%ymm7 # 2a374 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
DB 197,204,89,247 ; vmulps %ymm7,%ymm6,%ymm6
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,61,93,131,2,0 ; vbroadcastss 0x2835d(%rip),%ymm7 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,61,157,229,1,0 ; vbroadcastss 0x1e59d(%rip),%ymm7 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
DB 65,128,225,7 ; and $0x7,%r9b
@@ -11254,23 +11254,23 @@ _sk_gather_565_avx LABEL PROC
DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
DB 196,227,117,24,208,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- DB 196,226,125,24,5,83,130,2,0 ; vbroadcastss 0x28253(%rip),%ymm0 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
+ DB 196,226,125,24,5,147,228,1,0 ; vbroadcastss 0x1e493(%rip),%ymm0 # 2a360 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
DB 197,236,84,192 ; vandps %ymm0,%ymm2,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,70,130,2,0 ; vbroadcastss 0x28246(%rip),%ymm1 # 34124 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ DB 196,226,125,24,13,134,228,1,0 ; vbroadcastss 0x1e486(%rip),%ymm1 # 2a364 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,24,13,61,130,2,0 ; vbroadcastss 0x2823d(%rip),%ymm1 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ DB 196,226,125,24,13,125,228,1,0 ; vbroadcastss 0x1e47d(%rip),%ymm1 # 2a368 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
DB 197,236,84,201 ; vandps %ymm1,%ymm2,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,29,48,130,2,0 ; vbroadcastss 0x28230(%rip),%ymm3 # 3412c <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 196,226,125,24,29,112,228,1,0 ; vbroadcastss 0x1e470(%rip),%ymm3 # 2a36c <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 196,226,125,24,29,39,130,2,0 ; vbroadcastss 0x28227(%rip),%ymm3 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
+ DB 196,226,125,24,29,103,228,1,0 ; vbroadcastss 0x1e467(%rip),%ymm3 # 2a370 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
DB 197,236,84,211 ; vandps %ymm3,%ymm2,%ymm2
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,226,125,24,29,26,130,2,0 ; vbroadcastss 0x2821a(%rip),%ymm3 # 34134 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ DB 196,226,125,24,29,90,228,1,0 ; vbroadcastss 0x1e45a(%rip),%ymm3 # 2a374 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,127,129,2,0 ; vbroadcastss 0x2817f(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,191,227,1,0 ; vbroadcastss 0x1e3bf(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 91 ; pop %rbx
DB 65,92 ; pop %r12
DB 65,94 ; pop %r14
@@ -11287,14 +11287,14 @@ _sk_store_565_avx LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,218 ; movslq %edx,%r11
- DB 196,98,125,24,5,66,130,2,0 ; vbroadcastss 0x28242(%rip),%ymm8 # 34194 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ DB 196,98,125,24,5,130,228,1,0 ; vbroadcastss 0x1e482(%rip),%ymm8 # 2a3d4 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
DB 196,193,41,114,241,11 ; vpslld $0xb,%xmm9,%xmm10
DB 196,67,125,25,201,1 ; vextractf128 $0x1,%ymm9,%xmm9
DB 196,193,49,114,241,11 ; vpslld $0xb,%xmm9,%xmm9
DB 196,67,45,24,201,1 ; vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- DB 196,98,125,24,21,27,130,2,0 ; vbroadcastss 0x2821b(%rip),%ymm10 # 34198 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ DB 196,98,125,24,21,91,228,1,0 ; vbroadcastss 0x1e45b(%rip),%ymm10 # 2a3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
DB 196,65,116,89,210 ; vmulps %ymm10,%ymm1,%ymm10
DB 196,65,125,91,210 ; vcvtps2dq %ymm10,%ymm10
DB 196,193,33,114,242,5 ; vpslld $0x5,%xmm10,%xmm11
@@ -11371,25 +11371,25 @@ _sk_load_4444_avx LABEL PROC
DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
DB 196,227,117,24,216,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- DB 196,226,125,24,5,17,129,2,0 ; vbroadcastss 0x28111(%rip),%ymm0 # 3419c <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
+ DB 196,226,125,24,5,81,227,1,0 ; vbroadcastss 0x1e351(%rip),%ymm0 # 2a3dc <_sk_srcover_rgba_8888_sse2_lowp+0x924>
DB 197,228,84,192 ; vandps %ymm0,%ymm3,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,4,129,2,0 ; vbroadcastss 0x28104(%rip),%ymm1 # 341a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
+ DB 196,226,125,24,13,68,227,1,0 ; vbroadcastss 0x1e344(%rip),%ymm1 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,24,13,251,128,2,0 ; vbroadcastss 0x280fb(%rip),%ymm1 # 341a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ DB 196,226,125,24,13,59,227,1,0 ; vbroadcastss 0x1e33b(%rip),%ymm1 # 2a3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
DB 197,228,84,201 ; vandps %ymm1,%ymm3,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,238,128,2,0 ; vbroadcastss 0x280ee(%rip),%ymm2 # 341a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ DB 196,226,125,24,21,46,227,1,0 ; vbroadcastss 0x1e32e(%rip),%ymm2 # 2a3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
DB 197,244,89,202 ; vmulps %ymm2,%ymm1,%ymm1
- DB 196,226,125,24,21,229,128,2,0 ; vbroadcastss 0x280e5(%rip),%ymm2 # 341ac <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
+ DB 196,226,125,24,21,37,227,1,0 ; vbroadcastss 0x1e325(%rip),%ymm2 # 2a3ec <_sk_srcover_rgba_8888_sse2_lowp+0x934>
DB 197,228,84,210 ; vandps %ymm2,%ymm3,%ymm2
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,98,125,24,5,216,128,2,0 ; vbroadcastss 0x280d8(%rip),%ymm8 # 341b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd7c>
+ DB 196,98,125,24,5,24,227,1,0 ; vbroadcastss 0x1e318(%rip),%ymm8 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,98,125,24,5,206,128,2,0 ; vbroadcastss 0x280ce(%rip),%ymm8 # 341b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ DB 196,98,125,24,5,14,227,1,0 ; vbroadcastss 0x1e30e(%rip),%ymm8 # 2a3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
DB 196,193,100,84,216 ; vandps %ymm8,%ymm3,%ymm3
DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,192,128,2,0 ; vbroadcastss 0x280c0(%rip),%ymm8 # 341b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ DB 196,98,125,24,5,0,227,1,0 ; vbroadcastss 0x1e300(%rip),%ymm8 # 2a3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -11458,25 +11458,25 @@ _sk_load_4444_dst_avx LABEL PROC
DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
DB 196,226,121,51,228 ; vpmovzxwd %xmm4,%xmm4
DB 196,227,85,24,252,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- DB 196,226,125,24,37,181,127,2,0 ; vbroadcastss 0x27fb5(%rip),%ymm4 # 3419c <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
+ DB 196,226,125,24,37,245,225,1,0 ; vbroadcastss 0x1e1f5(%rip),%ymm4 # 2a3dc <_sk_srcover_rgba_8888_sse2_lowp+0x924>
DB 197,196,84,228 ; vandps %ymm4,%ymm7,%ymm4
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,168,127,2,0 ; vbroadcastss 0x27fa8(%rip),%ymm5 # 341a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
+ DB 196,226,125,24,45,232,225,1,0 ; vbroadcastss 0x1e1e8(%rip),%ymm5 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
- DB 196,226,125,24,45,159,127,2,0 ; vbroadcastss 0x27f9f(%rip),%ymm5 # 341a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ DB 196,226,125,24,45,223,225,1,0 ; vbroadcastss 0x1e1df(%rip),%ymm5 # 2a3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
DB 197,196,84,237 ; vandps %ymm5,%ymm7,%ymm5
DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,226,125,24,53,146,127,2,0 ; vbroadcastss 0x27f92(%rip),%ymm6 # 341a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ DB 196,226,125,24,53,210,225,1,0 ; vbroadcastss 0x1e1d2(%rip),%ymm6 # 2a3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
DB 197,212,89,238 ; vmulps %ymm6,%ymm5,%ymm5
- DB 196,226,125,24,53,137,127,2,0 ; vbroadcastss 0x27f89(%rip),%ymm6 # 341ac <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
+ DB 196,226,125,24,53,201,225,1,0 ; vbroadcastss 0x1e1c9(%rip),%ymm6 # 2a3ec <_sk_srcover_rgba_8888_sse2_lowp+0x934>
DB 197,196,84,246 ; vandps %ymm6,%ymm7,%ymm6
DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,98,125,24,5,124,127,2,0 ; vbroadcastss 0x27f7c(%rip),%ymm8 # 341b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd7c>
+ DB 196,98,125,24,5,188,225,1,0 ; vbroadcastss 0x1e1bc(%rip),%ymm8 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
DB 196,193,76,89,240 ; vmulps %ymm8,%ymm6,%ymm6
- DB 196,98,125,24,5,114,127,2,0 ; vbroadcastss 0x27f72(%rip),%ymm8 # 341b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ DB 196,98,125,24,5,178,225,1,0 ; vbroadcastss 0x1e1b2(%rip),%ymm8 # 2a3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
DB 196,193,68,84,248 ; vandps %ymm8,%ymm7,%ymm7
DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,5,100,127,2,0 ; vbroadcastss 0x27f64(%rip),%ymm8 # 341b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ DB 196,98,125,24,5,164,225,1,0 ; vbroadcastss 0x1e1a4(%rip),%ymm8 # 2a3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
DB 196,193,68,89,248 ; vmulps %ymm8,%ymm7,%ymm7
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -11580,25 +11580,25 @@ _sk_gather_4444_avx LABEL PROC
DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
DB 196,227,117,24,216,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- DB 196,226,125,24,5,191,125,2,0 ; vbroadcastss 0x27dbf(%rip),%ymm0 # 3419c <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
+ DB 196,226,125,24,5,255,223,1,0 ; vbroadcastss 0x1dfff(%rip),%ymm0 # 2a3dc <_sk_srcover_rgba_8888_sse2_lowp+0x924>
DB 197,228,84,192 ; vandps %ymm0,%ymm3,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,178,125,2,0 ; vbroadcastss 0x27db2(%rip),%ymm1 # 341a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd6c>
+ DB 196,226,125,24,13,242,223,1,0 ; vbroadcastss 0x1dff2(%rip),%ymm1 # 2a3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,24,13,169,125,2,0 ; vbroadcastss 0x27da9(%rip),%ymm1 # 341a4 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ DB 196,226,125,24,13,233,223,1,0 ; vbroadcastss 0x1dfe9(%rip),%ymm1 # 2a3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
DB 197,228,84,201 ; vandps %ymm1,%ymm3,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,156,125,2,0 ; vbroadcastss 0x27d9c(%rip),%ymm2 # 341a8 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ DB 196,226,125,24,21,220,223,1,0 ; vbroadcastss 0x1dfdc(%rip),%ymm2 # 2a3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
DB 197,244,89,202 ; vmulps %ymm2,%ymm1,%ymm1
- DB 196,226,125,24,21,147,125,2,0 ; vbroadcastss 0x27d93(%rip),%ymm2 # 341ac <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
+ DB 196,226,125,24,21,211,223,1,0 ; vbroadcastss 0x1dfd3(%rip),%ymm2 # 2a3ec <_sk_srcover_rgba_8888_sse2_lowp+0x934>
DB 197,228,84,210 ; vandps %ymm2,%ymm3,%ymm2
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,98,125,24,5,134,125,2,0 ; vbroadcastss 0x27d86(%rip),%ymm8 # 341b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd7c>
+ DB 196,98,125,24,5,198,223,1,0 ; vbroadcastss 0x1dfc6(%rip),%ymm8 # 2a3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,98,125,24,5,124,125,2,0 ; vbroadcastss 0x27d7c(%rip),%ymm8 # 341b4 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ DB 196,98,125,24,5,188,223,1,0 ; vbroadcastss 0x1dfbc(%rip),%ymm8 # 2a3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
DB 196,193,100,84,216 ; vandps %ymm8,%ymm3,%ymm3
DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,110,125,2,0 ; vbroadcastss 0x27d6e(%rip),%ymm8 # 341b8 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ DB 196,98,125,24,5,174,223,1,0 ; vbroadcastss 0x1dfae(%rip),%ymm8 # 2a3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 91 ; pop %rbx
@@ -11617,7 +11617,7 @@ _sk_store_4444_avx LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,218 ; movslq %edx,%r11
- DB 196,98,125,24,5,66,125,2,0 ; vbroadcastss 0x27d42(%rip),%ymm8 # 341bc <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ DB 196,98,125,24,5,130,223,1,0 ; vbroadcastss 0x1df82(%rip),%ymm8 # 2a3fc <_sk_srcover_rgba_8888_sse2_lowp+0x944>
DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
DB 196,193,41,114,241,12 ; vpslld $0xc,%xmm9,%xmm10
@@ -11685,7 +11685,7 @@ _sk_store_4444_avx LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 232,255,255,255,224 ; callq ffffffffe100c588 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd9154>
+ DB 232,255,255,255,224 ; callq ffffffffe100c588 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe2ad0>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; .byte 0xff
@@ -11702,10 +11702,10 @@ _sk_load_8888_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,135,0,0,0 ; jne c633 <_sk_load_8888_avx+0xa7>
DB 196,1,125,16,12,152 ; vmovupd (%r8,%r11,4),%ymm9
- DB 197,125,40,21,198,116,2,0 ; vmovapd 0x274c6(%rip),%ymm10 # 33a80 <_sk_srcover_rgba_8888_sse2_lowp+0x64c>
+ DB 197,125,40,21,102,219,1,0 ; vmovapd 0x1db66(%rip),%ymm10 # 2a120 <_sk_srcover_rgba_8888_sse2_lowp+0x668>
DB 196,193,53,84,194 ; vandpd %ymm10,%ymm9,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,80,123,2,0 ; vbroadcastss 0x27b50(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,144,221,1,0 ; vbroadcastss 0x1dd90(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
DB 196,193,113,114,209,8 ; vpsrld $0x8,%xmm9,%xmm1
DB 196,99,125,25,203,1 ; vextractf128 $0x1,%ymm9,%xmm3
@@ -11795,10 +11795,10 @@ _sk_load_8888_dst_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,135,0,0,0 ; jne c7ab <_sk_load_8888_dst_avx+0xa7>
DB 196,1,125,16,12,152 ; vmovupd (%r8,%r11,4),%ymm9
- DB 197,125,40,21,110,115,2,0 ; vmovapd 0x2736e(%rip),%ymm10 # 33aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x66c>
+ DB 197,125,40,21,14,218,1,0 ; vmovapd 0x1da0e(%rip),%ymm10 # 2a140 <_sk_srcover_rgba_8888_sse2_lowp+0x688>
DB 196,193,53,84,226 ; vandpd %ymm10,%ymm9,%ymm4
DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,98,125,24,5,216,121,2,0 ; vbroadcastss 0x279d8(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,24,220,1,0 ; vbroadcastss 0x1dc18(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,92,89,224 ; vmulps %ymm8,%ymm4,%ymm4
DB 196,193,81,114,209,8 ; vpsrld $0x8,%xmm9,%xmm5
DB 196,99,125,25,207,1 ; vextractf128 $0x1,%ymm9,%xmm7
@@ -11915,10 +11915,10 @@ _sk_gather_8888_avx LABEL PROC
DB 196,131,121,34,4,176,2 ; vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
DB 196,195,121,34,28,152,3 ; vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
DB 196,227,61,24,195,1 ; vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- DB 197,124,40,21,146,113,2,0 ; vmovaps 0x27192(%rip),%ymm10 # 33ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x68c>
+ DB 197,124,40,21,50,216,1,0 ; vmovaps 0x1d832(%rip),%ymm10 # 2a160 <_sk_srcover_rgba_8888_sse2_lowp+0x6a8>
DB 196,193,124,84,194 ; vandps %ymm10,%ymm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,220,119,2,0 ; vbroadcastss 0x277dc(%rip),%ymm9 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,13,28,218,1,0 ; vbroadcastss 0x1da1c(%rip),%ymm9 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
DB 196,193,113,114,208,8 ; vpsrld $0x8,%xmm8,%xmm1
DB 197,233,114,211,8 ; vpsrld $0x8,%xmm3,%xmm2
@@ -11953,7 +11953,7 @@ _sk_store_8888_avx LABEL PROC
DB 73,193,224,2 ; shl $0x2,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,218 ; movslq %edx,%r11
- DB 196,98,125,24,5,12,119,2,0 ; vbroadcastss 0x2770c(%rip),%ymm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,5,76,217,1,0 ; vbroadcastss 0x1d94c(%rip),%ymm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
DB 196,65,116,89,208 ; vmulps %ymm8,%ymm1,%ymm10
@@ -12039,10 +12039,10 @@ _sk_load_bgra_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,135,0,0,0 ; jne cb87 <_sk_load_bgra_avx+0xa7>
DB 196,1,125,16,12,152 ; vmovupd (%r8,%r11,4),%ymm9
- DB 197,125,40,21,210,111,2,0 ; vmovapd 0x26fd2(%rip),%ymm10 # 33ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x6ac>
+ DB 197,125,40,21,114,214,1,0 ; vmovapd 0x1d672(%rip),%ymm10 # 2a180 <_sk_srcover_rgba_8888_sse2_lowp+0x6c8>
DB 196,193,53,84,202 ; vandpd %ymm10,%ymm9,%ymm1
DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,98,125,24,5,252,117,2,0 ; vbroadcastss 0x275fc(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,60,216,1,0 ; vbroadcastss 0x1d83c(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,116,89,208 ; vmulps %ymm8,%ymm1,%ymm2
DB 196,193,113,114,209,8 ; vpsrld $0x8,%xmm9,%xmm1
DB 196,99,125,25,203,1 ; vextractf128 $0x1,%ymm9,%xmm3
@@ -12132,10 +12132,10 @@ _sk_load_bgra_dst_avx LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,135,0,0,0 ; jne ccff <_sk_load_bgra_dst_avx+0xa7>
DB 196,1,125,16,12,152 ; vmovupd (%r8,%r11,4),%ymm9
- DB 197,125,40,21,122,110,2,0 ; vmovapd 0x26e7a(%rip),%ymm10 # 33b00 <_sk_srcover_rgba_8888_sse2_lowp+0x6cc>
+ DB 197,125,40,21,26,213,1,0 ; vmovapd 0x1d51a(%rip),%ymm10 # 2a1a0 <_sk_srcover_rgba_8888_sse2_lowp+0x6e8>
DB 196,193,53,84,234 ; vandpd %ymm10,%ymm9,%ymm5
DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,98,125,24,5,132,116,2,0 ; vbroadcastss 0x27484(%rip),%ymm8 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,5,196,214,1,0 ; vbroadcastss 0x1d6c4(%rip),%ymm8 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,84,89,240 ; vmulps %ymm8,%ymm5,%ymm6
DB 196,193,81,114,209,8 ; vpsrld $0x8,%xmm9,%xmm5
DB 196,99,125,25,207,1 ; vextractf128 $0x1,%ymm9,%xmm7
@@ -12252,10 +12252,10 @@ _sk_gather_bgra_avx LABEL PROC
DB 196,131,121,34,4,176,2 ; vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
DB 196,195,121,34,28,152,3 ; vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
DB 196,227,61,24,195,1 ; vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- DB 197,124,40,13,158,108,2,0 ; vmovaps 0x26c9e(%rip),%ymm9 # 33b20 <_sk_srcover_rgba_8888_sse2_lowp+0x6ec>
+ DB 197,124,40,13,62,211,1,0 ; vmovaps 0x1d33e(%rip),%ymm9 # 2a1c0 <_sk_srcover_rgba_8888_sse2_lowp+0x708>
DB 196,193,124,84,193 ; vandps %ymm9,%ymm0,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,21,136,114,2,0 ; vbroadcastss 0x27288(%rip),%ymm10 # 3411c <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 196,98,125,24,21,200,212,1,0 ; vbroadcastss 0x1d4c8(%rip),%ymm10 # 2a35c <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
DB 196,193,124,89,210 ; vmulps %ymm10,%ymm0,%ymm2
DB 196,193,121,114,208,8 ; vpsrld $0x8,%xmm8,%xmm0
DB 197,241,114,211,8 ; vpsrld $0x8,%xmm3,%xmm1
@@ -12290,7 +12290,7 @@ _sk_store_bgra_avx LABEL PROC
DB 73,193,224,2 ; shl $0x2,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,218 ; movslq %edx,%r11
- DB 196,98,125,24,5,184,113,2,0 ; vbroadcastss 0x271b8(%rip),%ymm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 196,98,125,24,5,248,211,1,0 ; vbroadcastss 0x1d3f8(%rip),%ymm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 196,65,108,89,200 ; vmulps %ymm8,%ymm2,%ymm9
DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
DB 196,65,116,89,208 ; vmulps %ymm8,%ymm1,%ymm10
@@ -12396,14 +12396,14 @@ _sk_load_f16_avx LABEL PROC
DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 197,123,18,21,173,122,2,0 ; vmovddup 0x27aad(%rip),%xmm10 # 34b78 <_sk_srcover_rgba_8888_sse2_lowp+0x1744>
+ DB 197,123,18,21,221,219,1,0 ; vmovddup 0x1dbdd(%rip),%xmm10 # 2aca8 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
DB 196,193,121,219,218 ; vpand %xmm10,%xmm0,%xmm3
- DB 196,98,121,24,29,75,113,2,0 ; vbroadcastss 0x2714b(%rip),%xmm11 # 34224 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ DB 196,98,121,24,29,139,211,1,0 ; vbroadcastss 0x1d38b(%rip),%xmm11 # 2a464 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
DB 197,33,102,227 ; vpcmpgtd %xmm3,%xmm11,%xmm12
DB 196,193,113,219,210 ; vpand %xmm10,%xmm1,%xmm2
DB 197,33,102,234 ; vpcmpgtd %xmm2,%xmm11,%xmm13
DB 196,195,21,24,252,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- DB 197,123,18,37,140,122,2,0 ; vmovddup 0x27a8c(%rip),%xmm12 # 34b80 <_sk_srcover_rgba_8888_sse2_lowp+0x174c>
+ DB 197,123,18,37,188,219,1,0 ; vmovddup 0x1dbbc(%rip),%xmm12 # 2acb0 <_sk_srcover_rgba_8888_sse2_lowp+0x11f8>
DB 196,193,113,219,204 ; vpand %xmm12,%xmm1,%xmm1
DB 197,241,114,241,16 ; vpslld $0x10,%xmm1,%xmm1
DB 196,193,121,219,196 ; vpand %xmm12,%xmm0,%xmm0
@@ -12412,7 +12412,7 @@ _sk_load_f16_avx LABEL PROC
DB 197,241,235,202 ; vpor %xmm2,%xmm1,%xmm1
DB 197,233,114,243,13 ; vpslld $0xd,%xmm3,%xmm2
DB 197,249,235,194 ; vpor %xmm2,%xmm0,%xmm0
- DB 196,226,121,24,29,5,113,2,0 ; vbroadcastss 0x27105(%rip),%xmm3 # 34228 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ DB 196,226,121,24,29,69,211,1,0 ; vbroadcastss 0x1d345(%rip),%xmm3 # 2a468 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
DB 197,249,254,195 ; vpaddd %xmm3,%xmm0,%xmm0
DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -12547,14 +12547,14 @@ _sk_load_f16_dst_avx LABEL PROC
DB 196,226,121,51,236 ; vpmovzxwd %xmm4,%xmm5
DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
DB 196,226,121,51,228 ; vpmovzxwd %xmm4,%xmm4
- DB 197,123,18,21,210,119,2,0 ; vmovddup 0x277d2(%rip),%xmm10 # 34b78 <_sk_srcover_rgba_8888_sse2_lowp+0x1744>
+ DB 197,123,18,21,2,217,1,0 ; vmovddup 0x1d902(%rip),%xmm10 # 2aca8 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
DB 196,193,89,219,250 ; vpand %xmm10,%xmm4,%xmm7
- DB 196,98,121,24,29,112,110,2,0 ; vbroadcastss 0x26e70(%rip),%xmm11 # 34224 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ DB 196,98,121,24,29,176,208,1,0 ; vbroadcastss 0x1d0b0(%rip),%xmm11 # 2a464 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
DB 197,33,102,231 ; vpcmpgtd %xmm7,%xmm11,%xmm12
DB 196,193,81,219,242 ; vpand %xmm10,%xmm5,%xmm6
DB 197,33,102,238 ; vpcmpgtd %xmm6,%xmm11,%xmm13
DB 196,195,21,24,220,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- DB 197,123,18,37,177,119,2,0 ; vmovddup 0x277b1(%rip),%xmm12 # 34b80 <_sk_srcover_rgba_8888_sse2_lowp+0x174c>
+ DB 197,123,18,37,225,216,1,0 ; vmovddup 0x1d8e1(%rip),%xmm12 # 2acb0 <_sk_srcover_rgba_8888_sse2_lowp+0x11f8>
DB 196,193,81,219,236 ; vpand %xmm12,%xmm5,%xmm5
DB 197,209,114,245,16 ; vpslld $0x10,%xmm5,%xmm5
DB 196,193,89,219,228 ; vpand %xmm12,%xmm4,%xmm4
@@ -12563,7 +12563,7 @@ _sk_load_f16_dst_avx LABEL PROC
DB 197,209,235,238 ; vpor %xmm6,%xmm5,%xmm5
DB 197,201,114,247,13 ; vpslld $0xd,%xmm7,%xmm6
DB 197,217,235,230 ; vpor %xmm6,%xmm4,%xmm4
- DB 196,226,121,24,61,42,110,2,0 ; vbroadcastss 0x26e2a(%rip),%xmm7 # 34228 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ DB 196,226,121,24,61,106,208,1,0 ; vbroadcastss 0x1d06a(%rip),%xmm7 # 2a468 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
DB 197,217,254,231 ; vpaddd %xmm7,%xmm4,%xmm4
DB 197,209,254,239 ; vpaddd %xmm7,%xmm5,%xmm5
DB 196,227,85,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -12725,14 +12725,14 @@ _sk_gather_f16_avx LABEL PROC
DB 196,226,121,51,208 ; vpmovzxwd %xmm0,%xmm2
DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 197,123,18,21,138,116,2,0 ; vmovddup 0x2748a(%rip),%xmm10 # 34b78 <_sk_srcover_rgba_8888_sse2_lowp+0x1744>
+ DB 197,123,18,21,186,213,1,0 ; vmovddup 0x1d5ba(%rip),%xmm10 # 2aca8 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
DB 196,193,121,219,218 ; vpand %xmm10,%xmm0,%xmm3
- DB 196,98,121,24,29,40,107,2,0 ; vbroadcastss 0x26b28(%rip),%xmm11 # 34224 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ DB 196,98,121,24,29,104,205,1,0 ; vbroadcastss 0x1cd68(%rip),%xmm11 # 2a464 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
DB 197,33,102,227 ; vpcmpgtd %xmm3,%xmm11,%xmm12
DB 196,193,105,219,202 ; vpand %xmm10,%xmm2,%xmm1
DB 197,33,102,233 ; vpcmpgtd %xmm1,%xmm11,%xmm13
DB 196,195,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm4
- DB 197,123,18,37,105,116,2,0 ; vmovddup 0x27469(%rip),%xmm12 # 34b80 <_sk_srcover_rgba_8888_sse2_lowp+0x174c>
+ DB 197,123,18,37,153,213,1,0 ; vmovddup 0x1d599(%rip),%xmm12 # 2acb0 <_sk_srcover_rgba_8888_sse2_lowp+0x11f8>
DB 196,193,105,219,212 ; vpand %xmm12,%xmm2,%xmm2
DB 197,233,114,242,16 ; vpslld $0x10,%xmm2,%xmm2
DB 196,193,121,219,196 ; vpand %xmm12,%xmm0,%xmm0
@@ -12741,7 +12741,7 @@ _sk_gather_f16_avx LABEL PROC
DB 197,233,235,201 ; vpor %xmm1,%xmm2,%xmm1
DB 197,233,114,243,13 ; vpslld $0xd,%xmm3,%xmm2
DB 197,249,235,194 ; vpor %xmm2,%xmm0,%xmm0
- DB 196,226,121,24,29,226,106,2,0 ; vbroadcastss 0x26ae2(%rip),%xmm3 # 34228 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ DB 196,226,121,24,29,34,205,1,0 ; vbroadcastss 0x1cd22(%rip),%xmm3 # 2a468 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
DB 197,249,254,195 ; vpaddd %xmm3,%xmm0,%xmm0
DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -12830,12 +12830,12 @@ _sk_store_f16_avx LABEL PROC
DB 197,252,17,108,36,64 ; vmovups %ymm5,0x40(%rsp)
DB 197,252,17,100,36,32 ; vmovups %ymm4,0x20(%rsp)
DB 197,252,40,225 ; vmovaps %ymm1,%ymm4
- DB 196,98,125,24,5,26,105,2,0 ; vbroadcastss 0x2691a(%rip),%ymm8 # 34200 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
+ DB 196,98,125,24,5,90,203,1,0 ; vbroadcastss 0x1cb5a(%rip),%ymm8 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
DB 196,65,124,84,216 ; vandps %ymm8,%ymm0,%ymm11
- DB 196,98,125,24,21,56,105,2,0 ; vbroadcastss 0x26938(%rip),%ymm10 # 3422c <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
+ DB 196,98,125,24,21,120,203,1,0 ; vbroadcastss 0x1cb78(%rip),%ymm10 # 2a46c <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
DB 196,65,124,84,226 ; vandps %ymm10,%ymm0,%ymm12
DB 196,67,125,25,229,1 ; vextractf128 $0x1,%ymm12,%xmm13
- DB 196,98,121,24,13,40,105,2,0 ; vbroadcastss 0x26928(%rip),%xmm9 # 34230 <_sk_srcover_rgba_8888_sse2_lowp+0xdfc>
+ DB 196,98,121,24,13,104,203,1,0 ; vbroadcastss 0x1cb68(%rip),%xmm9 # 2a470 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
DB 196,65,49,102,245 ; vpcmpgtd %xmm13,%xmm9,%xmm14
DB 196,65,49,102,252 ; vpcmpgtd %xmm12,%xmm9,%xmm15
DB 196,67,5,24,246,1 ; vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -12846,7 +12846,7 @@ _sk_store_f16_avx LABEL PROC
DB 196,65,17,254,239 ; vpaddd %xmm15,%xmm13,%xmm13
DB 196,193,25,114,212,13 ; vpsrld $0xd,%xmm12,%xmm12
DB 196,65,25,254,227 ; vpaddd %xmm11,%xmm12,%xmm12
- DB 196,98,121,24,29,235,104,2,0 ; vbroadcastss 0x268eb(%rip),%xmm11 # 34234 <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+ DB 196,98,121,24,29,43,203,1,0 ; vbroadcastss 0x1cb2b(%rip),%xmm11 # 2a474 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
DB 196,65,17,254,235 ; vpaddd %xmm11,%xmm13,%xmm13
DB 196,65,25,254,227 ; vpaddd %xmm11,%xmm12,%xmm12
DB 196,67,29,24,237,1 ; vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -12995,7 +12995,7 @@ _sk_load_u16_be_avx LABEL PROC
DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,45,101,2,0 ; vbroadcastss 0x2652d(%rip),%ymm9 # 34138 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ DB 196,98,125,24,13,109,199,1,0 ; vbroadcastss 0x1c76d(%rip),%ymm9 # 2a378 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
DB 197,169,109,202 ; vpunpckhqdq %xmm2,%xmm10,%xmm1
DB 197,233,113,241,8 ; vpsllw $0x8,%xmm1,%xmm2
@@ -13097,7 +13097,7 @@ _sk_load_rgb_u16_be_avx LABEL PROC
DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,92,99,2,0 ; vbroadcastss 0x2635c(%rip),%ymm9 # 34138 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ DB 196,98,125,24,13,156,197,1,0 ; vbroadcastss 0x1c59c(%rip),%ymm9 # 2a378 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
DB 197,185,109,203 ; vpunpckhqdq %xmm3,%xmm8,%xmm1
DB 197,225,113,241,8 ; vpsllw $0x8,%xmm1,%xmm3
@@ -13119,7 +13119,7 @@ _sk_load_rgb_u16_be_avx LABEL PROC
DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,96,98,2,0 ; vbroadcastss 0x26260(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,160,196,1,0 ; vbroadcastss 0x1c4a0(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 255,224 ; jmpq *%rax
DB 196,193,121,110,4,64 ; vmovd (%r8,%rax,2),%xmm0
DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
@@ -13193,7 +13193,7 @@ _sk_store_u16_be_avx LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 73,99,193 ; movslq %r9d,%rax
- DB 196,98,125,24,5,37,98,2,0 ; vbroadcastss 0x26225(%rip),%ymm8 # 341c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd8c>
+ DB 196,98,125,24,5,101,196,1,0 ; vbroadcastss 0x1c465(%rip),%ymm8 # 2a400 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
DB 196,67,125,25,202,1 ; vextractf128 $0x1,%ymm9,%xmm10
@@ -13451,7 +13451,7 @@ _sk_load_f32_dst_avx LABEL PROC
DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
DB 255,70,255 ; incl -0x1(%rsi)
DB 255 ; (bad)
- DB 255,53,255,255,255,40 ; pushq 0x28ffffff(%rip) # 2900e414 <_sk_srcover_rgba_8888_sse2_lowp+0x28fdafe0>
+ DB 255,53,255,255,255,40 ; pushq 0x28ffffff(%rip) # 2900e414 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe495c>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; .byte 0xff
@@ -13586,7 +13586,7 @@ _sk_mirror_x_avx LABEL PROC
DB 196,193,58,88,192 ; vaddss %xmm8,%xmm8,%xmm0
DB 196,227,121,4,192,0 ; vpermilps $0x0,%xmm0,%xmm0
DB 196,99,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- DB 197,178,89,5,135,90,2,0 ; vmulss 0x25a87(%rip),%xmm9,%xmm0 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 197,178,89,5,199,188,1,0 ; vmulss 0x1bcc7(%rip),%xmm9,%xmm0 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,227,121,4,192,0 ; vpermilps $0x0,%xmm0,%xmm0
DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
@@ -13618,7 +13618,7 @@ _sk_mirror_y_avx LABEL PROC
DB 196,193,58,88,200 ; vaddss %xmm8,%xmm8,%xmm1
DB 196,227,121,4,201,0 ; vpermilps $0x0,%xmm1,%xmm1
DB 196,99,117,24,193,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- DB 197,178,89,13,250,89,2,0 ; vmulss 0x259fa(%rip),%xmm9,%xmm1 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 197,178,89,13,58,188,1,0 ; vmulss 0x1bc3a(%rip),%xmm9,%xmm1 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,227,121,4,201,0 ; vpermilps $0x0,%xmm1,%xmm1
DB 196,227,117,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
@@ -13643,7 +13643,7 @@ PUBLIC _sk_clamp_x_1_avx
_sk_clamp_x_1_avx LABEL PROC
DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,148,89,2,0 ; vbroadcastss 0x25994(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,212,187,1,0 ; vbroadcastss 0x1bbd4(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -13657,9 +13657,9 @@ _sk_repeat_x_1_avx LABEL PROC
PUBLIC _sk_mirror_x_1_avx
_sk_mirror_x_1_avx LABEL PROC
- DB 196,98,125,24,5,139,89,2,0 ; vbroadcastss 0x2598b(%rip),%ymm8 # 340c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc8c>
+ DB 196,98,125,24,5,203,187,1,0 ; vbroadcastss 0x1bbcb(%rip),%ymm8 # 2a300 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,13,97,89,2,0 ; vbroadcastss 0x25961(%rip),%ymm9 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,13,161,187,1,0 ; vbroadcastss 0x1bba1(%rip),%ymm9 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,124,89,201 ; vmulps %ymm9,%ymm0,%ymm9
DB 196,67,125,8,201,1 ; vroundps $0x1,%ymm9,%ymm9
DB 196,65,52,88,201 ; vaddps %ymm9,%ymm9,%ymm9
@@ -13673,12 +13673,12 @@ _sk_mirror_x_1_avx LABEL PROC
PUBLIC _sk_luminance_to_alpha_avx
_sk_luminance_to_alpha_avx LABEL PROC
- DB 196,226,125,24,29,77,90,2,0 ; vbroadcastss 0x25a4d(%rip),%ymm3 # 341c4 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ DB 196,226,125,24,29,141,188,1,0 ; vbroadcastss 0x1bc8d(%rip),%ymm3 # 2a404 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,226,125,24,29,68,90,2,0 ; vbroadcastss 0x25a44(%rip),%ymm3 # 341c8 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ DB 196,226,125,24,29,132,188,1,0 ; vbroadcastss 0x1bc84(%rip),%ymm3 # 2a408 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 196,226,125,24,13,55,90,2,0 ; vbroadcastss 0x25a37(%rip),%ymm1 # 341cc <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
+ DB 196,226,125,24,13,119,188,1,0 ; vbroadcastss 0x1bc77(%rip),%ymm1 # 2a40c <_sk_srcover_rgba_8888_sse2_lowp+0x954>
DB 197,236,89,201 ; vmulps %ymm1,%ymm2,%ymm1
DB 197,252,88,217 ; vaddps %ymm1,%ymm0,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -14070,18 +14070,18 @@ _sk_evenly_spaced_gradient_avx LABEL PROC
PUBLIC _sk_gauss_a_to_rgba_avx
_sk_gauss_a_to_rgba_avx LABEL PROC
- DB 196,226,125,24,5,76,83,2,0 ; vbroadcastss 0x2534c(%rip),%ymm0 # 341d4 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
+ DB 196,226,125,24,5,140,181,1,0 ; vbroadcastss 0x1b58c(%rip),%ymm0 # 2a414 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 196,226,125,24,13,59,83,2,0 ; vbroadcastss 0x2533b(%rip),%ymm1 # 341d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd9c>
+ DB 196,226,125,24,13,123,181,1,0 ; vbroadcastss 0x1b57b(%rip),%ymm1 # 2a410 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,226,125,24,13,50,83,2,0 ; vbroadcastss 0x25332(%rip),%ymm1 # 341d8 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ DB 196,226,125,24,13,114,181,1,0 ; vbroadcastss 0x1b572(%rip),%ymm1 # 2a418 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,226,125,24,13,37,83,2,0 ; vbroadcastss 0x25325(%rip),%ymm1 # 341dc <_sk_srcover_rgba_8888_sse2_lowp+0xda8>
+ DB 196,226,125,24,13,101,181,1,0 ; vbroadcastss 0x1b565(%rip),%ymm1 # 2a41c <_sk_srcover_rgba_8888_sse2_lowp+0x964>
DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,226,125,24,13,24,83,2,0 ; vbroadcastss 0x25318(%rip),%ymm1 # 341e0 <_sk_srcover_rgba_8888_sse2_lowp+0xdac>
+ DB 196,226,125,24,13,88,181,1,0 ; vbroadcastss 0x1b558(%rip),%ymm1 # 2a420 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
@@ -14107,7 +14107,7 @@ _sk_gradient_avx LABEL PROC
DB 73,255,200 ; dec %r8
DB 72,131,195,4 ; add $0x4,%rbx
DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 196,98,125,24,21,150,81,2,0 ; vbroadcastss 0x25196(%rip),%ymm10 # 340ac <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 196,98,125,24,21,214,179,1,0 ; vbroadcastss 0x1b3d6(%rip),%ymm10 # 2a2ec <_sk_srcover_rgba_8888_sse2_lowp+0x834>
DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
DB 196,98,125,24,3 ; vbroadcastss (%rbx),%ymm8
DB 197,60,194,192,2 ; vcmpleps %ymm0,%ymm8,%ymm8
@@ -14298,27 +14298,27 @@ _sk_xy_to_unit_angle_avx LABEL PROC
DB 196,65,52,95,226 ; vmaxps %ymm10,%ymm9,%ymm12
DB 196,65,36,94,220 ; vdivps %ymm12,%ymm11,%ymm11
DB 196,65,36,89,227 ; vmulps %ymm11,%ymm11,%ymm12
- DB 196,98,125,24,45,189,78,2,0 ; vbroadcastss 0x24ebd(%rip),%ymm13 # 341e4 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ DB 196,98,125,24,45,253,176,1,0 ; vbroadcastss 0x1b0fd(%rip),%ymm13 # 2a424 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
DB 196,65,28,89,237 ; vmulps %ymm13,%ymm12,%ymm13
- DB 196,98,125,24,53,179,78,2,0 ; vbroadcastss 0x24eb3(%rip),%ymm14 # 341e8 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ DB 196,98,125,24,53,243,176,1,0 ; vbroadcastss 0x1b0f3(%rip),%ymm14 # 2a428 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
DB 196,65,20,88,238 ; vaddps %ymm14,%ymm13,%ymm13
DB 196,65,28,89,237 ; vmulps %ymm13,%ymm12,%ymm13
- DB 196,98,125,24,53,164,78,2,0 ; vbroadcastss 0x24ea4(%rip),%ymm14 # 341ec <_sk_srcover_rgba_8888_sse2_lowp+0xdb8>
+ DB 196,98,125,24,53,228,176,1,0 ; vbroadcastss 0x1b0e4(%rip),%ymm14 # 2a42c <_sk_srcover_rgba_8888_sse2_lowp+0x974>
DB 196,65,20,88,238 ; vaddps %ymm14,%ymm13,%ymm13
DB 196,65,28,89,229 ; vmulps %ymm13,%ymm12,%ymm12
- DB 196,98,125,24,45,149,78,2,0 ; vbroadcastss 0x24e95(%rip),%ymm13 # 341f0 <_sk_srcover_rgba_8888_sse2_lowp+0xdbc>
+ DB 196,98,125,24,45,213,176,1,0 ; vbroadcastss 0x1b0d5(%rip),%ymm13 # 2a430 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
DB 196,65,52,194,202,1 ; vcmpltps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,21,128,78,2,0 ; vbroadcastss 0x24e80(%rip),%ymm10 # 341f4 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
+ DB 196,98,125,24,21,192,176,1,0 ; vbroadcastss 0x1b0c0(%rip),%ymm10 # 2a434 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
DB 196,65,44,92,211 ; vsubps %ymm11,%ymm10,%ymm10
DB 196,67,37,74,202,144 ; vblendvps %ymm9,%ymm10,%ymm11,%ymm9
DB 196,193,124,194,192,1 ; vcmpltps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,21,22,77,2,0 ; vbroadcastss 0x24d16(%rip),%ymm10 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,21,86,175,1,0 ; vbroadcastss 0x1af56(%rip),%ymm10 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,44,92,209 ; vsubps %ymm9,%ymm10,%ymm10
DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
DB 196,65,116,194,200,1 ; vcmpltps %ymm8,%ymm1,%ymm9
- DB 196,98,125,24,21,0,77,2,0 ; vbroadcastss 0x24d00(%rip),%ymm10 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,21,64,175,1,0 ; vbroadcastss 0x1af40(%rip),%ymm10 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,44,92,208 ; vsubps %ymm0,%ymm10,%ymm10
DB 196,195,125,74,194,144 ; vblendvps %ymm9,%ymm10,%ymm0,%ymm0
DB 196,65,124,194,200,3 ; vcmpunordps %ymm8,%ymm0,%ymm9
@@ -14344,7 +14344,7 @@ _sk_xy_to_2pt_conical_quadratic_max_avx LABEL PROC
DB 196,67,121,4,210,0 ; vpermilps $0x0,%xmm10,%xmm10
DB 196,67,45,24,210,1 ; vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
DB 197,44,88,208 ; vaddps %ymm0,%ymm10,%ymm10
- DB 196,98,125,24,29,246,77,2,0 ; vbroadcastss 0x24df6(%rip),%ymm11 # 341f8 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ DB 196,98,125,24,29,54,176,1,0 ; vbroadcastss 0x1b036(%rip),%ymm11 # 2a438 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
DB 197,252,89,192 ; vmulps %ymm0,%ymm0,%ymm0
DB 197,116,89,217 ; vmulps %ymm1,%ymm1,%ymm11
@@ -14353,17 +14353,17 @@ _sk_xy_to_2pt_conical_quadratic_max_avx LABEL PROC
DB 196,227,121,4,192,0 ; vpermilps $0x0,%xmm0,%xmm0
DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
DB 197,164,92,192 ; vsubps %ymm0,%ymm11,%ymm0
- DB 196,98,125,24,13,202,77,2,0 ; vbroadcastss 0x24dca(%rip),%ymm9 # 341fc <_sk_srcover_rgba_8888_sse2_lowp+0xdc8>
+ DB 196,98,125,24,13,10,176,1,0 ; vbroadcastss 0x1b00a(%rip),%ymm9 # 2a43c <_sk_srcover_rgba_8888_sse2_lowp+0x984>
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
DB 196,65,44,89,194 ; vmulps %ymm10,%ymm10,%ymm8
DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
DB 197,252,81,192 ; vsqrtps %ymm0,%ymm0
DB 196,98,125,24,64,36 ; vbroadcastss 0x24(%rax),%ymm8
- DB 196,98,125,24,13,168,77,2,0 ; vbroadcastss 0x24da8(%rip),%ymm9 # 34200 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
+ DB 196,98,125,24,13,232,175,1,0 ; vbroadcastss 0x1afe8(%rip),%ymm9 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
DB 196,65,44,87,201 ; vxorps %ymm9,%ymm10,%ymm9
DB 196,65,124,92,210 ; vsubps %ymm10,%ymm0,%ymm10
- DB 196,98,125,24,29,57,76,2,0 ; vbroadcastss 0x24c39(%rip),%ymm11 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,29,121,174,1,0 ; vbroadcastss 0x1ae79(%rip),%ymm11 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
DB 196,65,60,89,210 ; vmulps %ymm10,%ymm8,%ymm10
DB 197,180,92,192 ; vsubps %ymm0,%ymm9,%ymm0
@@ -14381,7 +14381,7 @@ _sk_xy_to_2pt_conical_quadratic_min_avx LABEL PROC
DB 196,67,121,4,210,0 ; vpermilps $0x0,%xmm10,%xmm10
DB 196,67,45,24,210,1 ; vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
DB 197,44,88,208 ; vaddps %ymm0,%ymm10,%ymm10
- DB 196,98,125,24,29,72,77,2,0 ; vbroadcastss 0x24d48(%rip),%ymm11 # 341f8 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ DB 196,98,125,24,29,136,175,1,0 ; vbroadcastss 0x1af88(%rip),%ymm11 # 2a438 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
DB 197,252,89,192 ; vmulps %ymm0,%ymm0,%ymm0
DB 197,116,89,217 ; vmulps %ymm1,%ymm1,%ymm11
@@ -14390,17 +14390,17 @@ _sk_xy_to_2pt_conical_quadratic_min_avx LABEL PROC
DB 196,227,121,4,192,0 ; vpermilps $0x0,%xmm0,%xmm0
DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
DB 197,164,92,192 ; vsubps %ymm0,%ymm11,%ymm0
- DB 196,98,125,24,13,28,77,2,0 ; vbroadcastss 0x24d1c(%rip),%ymm9 # 341fc <_sk_srcover_rgba_8888_sse2_lowp+0xdc8>
+ DB 196,98,125,24,13,92,175,1,0 ; vbroadcastss 0x1af5c(%rip),%ymm9 # 2a43c <_sk_srcover_rgba_8888_sse2_lowp+0x984>
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
DB 196,65,44,89,194 ; vmulps %ymm10,%ymm10,%ymm8
DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
DB 197,252,81,192 ; vsqrtps %ymm0,%ymm0
DB 196,98,125,24,64,36 ; vbroadcastss 0x24(%rax),%ymm8
- DB 196,98,125,24,13,250,76,2,0 ; vbroadcastss 0x24cfa(%rip),%ymm9 # 34200 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
+ DB 196,98,125,24,13,58,175,1,0 ; vbroadcastss 0x1af3a(%rip),%ymm9 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
DB 196,65,44,87,201 ; vxorps %ymm9,%ymm10,%ymm9
DB 196,65,124,92,210 ; vsubps %ymm10,%ymm0,%ymm10
- DB 196,98,125,24,29,139,75,2,0 ; vbroadcastss 0x24b8b(%rip),%ymm11 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,29,203,173,1,0 ; vbroadcastss 0x1adcb(%rip),%ymm11 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
DB 196,65,60,89,210 ; vmulps %ymm10,%ymm8,%ymm10
DB 197,180,92,192 ; vsubps %ymm0,%ymm9,%ymm0
@@ -14417,7 +14417,7 @@ _sk_xy_to_2pt_conical_linear_avx LABEL PROC
DB 196,67,121,4,201,0 ; vpermilps $0x0,%xmm9,%xmm9
DB 196,67,53,24,201,1 ; vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
DB 197,52,88,200 ; vaddps %ymm0,%ymm9,%ymm9
- DB 196,98,125,24,21,160,76,2,0 ; vbroadcastss 0x24ca0(%rip),%ymm10 # 341f8 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ DB 196,98,125,24,21,224,174,1,0 ; vbroadcastss 0x1aee0(%rip),%ymm10 # 2a438 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
DB 197,252,89,192 ; vmulps %ymm0,%ymm0,%ymm0
DB 197,116,89,209 ; vmulps %ymm1,%ymm1,%ymm10
@@ -14426,7 +14426,7 @@ _sk_xy_to_2pt_conical_linear_avx LABEL PROC
DB 196,227,121,4,192,0 ; vpermilps $0x0,%xmm0,%xmm0
DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
DB 197,172,92,192 ; vsubps %ymm0,%ymm10,%ymm0
- DB 196,98,125,24,5,120,76,2,0 ; vbroadcastss 0x24c78(%rip),%ymm8 # 34200 <_sk_srcover_rgba_8888_sse2_lowp+0xdcc>
+ DB 196,98,125,24,5,184,174,1,0 ; vbroadcastss 0x1aeb8(%rip),%ymm8 # 2a440 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
DB 196,193,124,87,192 ; vxorps %ymm8,%ymm0,%ymm0
DB 196,193,124,94,193 ; vdivps %ymm9,%ymm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -14461,7 +14461,7 @@ _sk_apply_vector_mask_avx LABEL PROC
PUBLIC _sk_save_xy_avx
_sk_save_xy_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,180,74,2,0 ; vbroadcastss 0x24ab4(%rip),%ymm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,5,244,172,1,0 ; vbroadcastss 0x1acf4(%rip),%ymm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,124,88,200 ; vaddps %ymm8,%ymm0,%ymm9
DB 196,67,125,8,209,1 ; vroundps $0x1,%ymm9,%ymm10
DB 196,65,52,92,202 ; vsubps %ymm10,%ymm9,%ymm9
@@ -14494,9 +14494,9 @@ _sk_accumulate_avx LABEL PROC
PUBLIC _sk_bilinear_nx_avx
_sk_bilinear_nx_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,156,75,2,0 ; vbroadcastss 0x24b9c(%rip),%ymm0 # 34204 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ DB 196,226,125,24,5,220,173,1,0 ; vbroadcastss 0x1addc(%rip),%ymm0 # 2a444 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,51,74,2,0 ; vbroadcastss 0x24a33(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,115,172,1,0 ; vbroadcastss 0x1ac73(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,64 ; vsubps 0x40(%rax),%ymm8,%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -14505,7 +14505,7 @@ _sk_bilinear_nx_avx LABEL PROC
PUBLIC _sk_bilinear_px_avx
_sk_bilinear_px_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,19,74,2,0 ; vbroadcastss 0x24a13(%rip),%ymm0 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,226,125,24,5,83,172,1,0 ; vbroadcastss 0x1ac53(%rip),%ymm0 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
DB 197,124,16,64,64 ; vmovups 0x40(%rax),%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
@@ -14515,9 +14515,9 @@ _sk_bilinear_px_avx LABEL PROC
PUBLIC _sk_bilinear_ny_avx
_sk_bilinear_ny_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,83,75,2,0 ; vbroadcastss 0x24b53(%rip),%ymm1 # 34204 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ DB 196,226,125,24,13,147,173,1,0 ; vbroadcastss 0x1ad93(%rip),%ymm1 # 2a444 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
DB 197,244,88,72,32 ; vaddps 0x20(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,233,73,2,0 ; vbroadcastss 0x249e9(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,41,172,1,0 ; vbroadcastss 0x1ac29(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,96 ; vsubps 0x60(%rax),%ymm8,%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -14526,7 +14526,7 @@ _sk_bilinear_ny_avx LABEL PROC
PUBLIC _sk_bilinear_py_avx
_sk_bilinear_py_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,201,73,2,0 ; vbroadcastss 0x249c9(%rip),%ymm1 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,226,125,24,13,9,172,1,0 ; vbroadcastss 0x1ac09(%rip),%ymm1 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,244,88,72,32 ; vaddps 0x20(%rax),%ymm1,%ymm1
DB 197,124,16,64,96 ; vmovups 0x60(%rax),%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
@@ -14536,14 +14536,14 @@ _sk_bilinear_py_avx LABEL PROC
PUBLIC _sk_bicubic_n3x_avx
_sk_bicubic_n3x_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,12,75,2,0 ; vbroadcastss 0x24b0c(%rip),%ymm0 # 34208 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ DB 196,226,125,24,5,76,173,1,0 ; vbroadcastss 0x1ad4c(%rip),%ymm0 # 2a448 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,159,73,2,0 ; vbroadcastss 0x2499f(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,223,171,1,0 ; vbroadcastss 0x1abdf(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,64 ; vsubps 0x40(%rax),%ymm8,%ymm8
DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,240,74,2,0 ; vbroadcastss 0x24af0(%rip),%ymm10 # 3420c <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
+ DB 196,98,125,24,21,48,173,1,0 ; vbroadcastss 0x1ad30(%rip),%ymm10 # 2a44c <_sk_srcover_rgba_8888_sse2_lowp+0x994>
DB 196,65,60,89,194 ; vmulps %ymm10,%ymm8,%ymm8
- DB 196,98,125,24,21,238,73,2,0 ; vbroadcastss 0x249ee(%rip),%ymm10 # 34118 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ DB 196,98,125,24,21,46,172,1,0 ; vbroadcastss 0x1ac2e(%rip),%ymm10 # 2a358 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
DB 196,65,60,88,194 ; vaddps %ymm10,%ymm8,%ymm8
DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
@@ -14553,19 +14553,19 @@ _sk_bicubic_n3x_avx LABEL PROC
PUBLIC _sk_bicubic_n1x_avx
_sk_bicubic_n1x_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,185,74,2,0 ; vbroadcastss 0x24ab9(%rip),%ymm0 # 34204 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ DB 196,226,125,24,5,249,172,1,0 ; vbroadcastss 0x1acf9(%rip),%ymm0 # 2a444 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,80,73,2,0 ; vbroadcastss 0x24950(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,144,171,1,0 ; vbroadcastss 0x1ab90(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,64 ; vsubps 0x40(%rax),%ymm8,%ymm8
- DB 196,98,125,24,13,174,74,2,0 ; vbroadcastss 0x24aae(%rip),%ymm9 # 34214 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ DB 196,98,125,24,13,238,172,1,0 ; vbroadcastss 0x1acee(%rip),%ymm9 # 2a454 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
DB 196,65,60,89,201 ; vmulps %ymm9,%ymm8,%ymm9
- DB 196,98,125,24,21,156,74,2,0 ; vbroadcastss 0x24a9c(%rip),%ymm10 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ DB 196,98,125,24,21,220,172,1,0 ; vbroadcastss 0x1acdc(%rip),%ymm10 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
DB 196,65,60,89,201 ; vmulps %ymm9,%ymm8,%ymm9
- DB 196,98,125,24,21,29,73,2,0 ; vbroadcastss 0x2491d(%rip),%ymm10 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,21,93,171,1,0 ; vbroadcastss 0x1ab5d(%rip),%ymm10 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,13,126,74,2,0 ; vbroadcastss 0x24a7e(%rip),%ymm9 # 34218 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ DB 196,98,125,24,13,190,172,1,0 ; vbroadcastss 0x1acbe(%rip),%ymm9 # 2a458 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -14574,17 +14574,17 @@ _sk_bicubic_n1x_avx LABEL PROC
PUBLIC _sk_bicubic_p1x_avx
_sk_bicubic_p1x_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,238,72,2,0 ; vbroadcastss 0x248ee(%rip),%ymm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,5,46,171,1,0 ; vbroadcastss 0x1ab2e(%rip),%ymm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,188,88,0 ; vaddps (%rax),%ymm8,%ymm0
DB 197,124,16,72,64 ; vmovups 0x40(%rax),%ymm9
- DB 196,98,125,24,21,76,74,2,0 ; vbroadcastss 0x24a4c(%rip),%ymm10 # 34214 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ DB 196,98,125,24,21,140,172,1,0 ; vbroadcastss 0x1ac8c(%rip),%ymm10 # 2a454 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
DB 196,65,52,89,210 ; vmulps %ymm10,%ymm9,%ymm10
- DB 196,98,125,24,29,58,74,2,0 ; vbroadcastss 0x24a3a(%rip),%ymm11 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ DB 196,98,125,24,29,122,172,1,0 ; vbroadcastss 0x1ac7a(%rip),%ymm11 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
DB 196,65,52,89,210 ; vmulps %ymm10,%ymm9,%ymm10
DB 196,65,44,88,192 ; vaddps %ymm8,%ymm10,%ymm8
DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
- DB 196,98,125,24,13,37,74,2,0 ; vbroadcastss 0x24a25(%rip),%ymm9 # 34218 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ DB 196,98,125,24,13,101,172,1,0 ; vbroadcastss 0x1ac65(%rip),%ymm9 # 2a458 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -14593,13 +14593,13 @@ _sk_bicubic_p1x_avx LABEL PROC
PUBLIC _sk_bicubic_p3x_avx
_sk_bicubic_p3x_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,1,74,2,0 ; vbroadcastss 0x24a01(%rip),%ymm0 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ DB 196,226,125,24,5,65,172,1,0 ; vbroadcastss 0x1ac41(%rip),%ymm0 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
DB 197,124,16,64,64 ; vmovups 0x40(%rax),%ymm8
DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,230,73,2,0 ; vbroadcastss 0x249e6(%rip),%ymm10 # 3420c <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
+ DB 196,98,125,24,21,38,172,1,0 ; vbroadcastss 0x1ac26(%rip),%ymm10 # 2a44c <_sk_srcover_rgba_8888_sse2_lowp+0x994>
DB 196,65,60,89,194 ; vmulps %ymm10,%ymm8,%ymm8
- DB 196,98,125,24,21,228,72,2,0 ; vbroadcastss 0x248e4(%rip),%ymm10 # 34118 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ DB 196,98,125,24,21,36,171,1,0 ; vbroadcastss 0x1ab24(%rip),%ymm10 # 2a358 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
DB 196,65,60,88,194 ; vaddps %ymm10,%ymm8,%ymm8
DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
DB 197,124,17,128,128,0,0,0 ; vmovups %ymm8,0x80(%rax)
@@ -14609,14 +14609,14 @@ _sk_bicubic_p3x_avx LABEL PROC
PUBLIC _sk_bicubic_n3y_avx
_sk_bicubic_n3y_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,179,73,2,0 ; vbroadcastss 0x249b3(%rip),%ymm1 # 34208 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ DB 196,226,125,24,13,243,171,1,0 ; vbroadcastss 0x1abf3(%rip),%ymm1 # 2a448 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
DB 197,244,88,72,32 ; vaddps 0x20(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,69,72,2,0 ; vbroadcastss 0x24845(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,133,170,1,0 ; vbroadcastss 0x1aa85(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,96 ; vsubps 0x60(%rax),%ymm8,%ymm8
DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,150,73,2,0 ; vbroadcastss 0x24996(%rip),%ymm10 # 3420c <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
+ DB 196,98,125,24,21,214,171,1,0 ; vbroadcastss 0x1abd6(%rip),%ymm10 # 2a44c <_sk_srcover_rgba_8888_sse2_lowp+0x994>
DB 196,65,60,89,194 ; vmulps %ymm10,%ymm8,%ymm8
- DB 196,98,125,24,21,148,72,2,0 ; vbroadcastss 0x24894(%rip),%ymm10 # 34118 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ DB 196,98,125,24,21,212,170,1,0 ; vbroadcastss 0x1aad4(%rip),%ymm10 # 2a358 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
DB 196,65,60,88,194 ; vaddps %ymm10,%ymm8,%ymm8
DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
@@ -14626,19 +14626,19 @@ _sk_bicubic_n3y_avx LABEL PROC
PUBLIC _sk_bicubic_n1y_avx
_sk_bicubic_n1y_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,95,73,2,0 ; vbroadcastss 0x2495f(%rip),%ymm1 # 34204 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
+ DB 196,226,125,24,13,159,171,1,0 ; vbroadcastss 0x1ab9f(%rip),%ymm1 # 2a444 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
DB 197,244,88,72,32 ; vaddps 0x20(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,245,71,2,0 ; vbroadcastss 0x247f5(%rip),%ymm8 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,98,125,24,5,53,170,1,0 ; vbroadcastss 0x1aa35(%rip),%ymm8 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,60,92,64,96 ; vsubps 0x60(%rax),%ymm8,%ymm8
- DB 196,98,125,24,13,83,73,2,0 ; vbroadcastss 0x24953(%rip),%ymm9 # 34214 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ DB 196,98,125,24,13,147,171,1,0 ; vbroadcastss 0x1ab93(%rip),%ymm9 # 2a454 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
DB 196,65,60,89,201 ; vmulps %ymm9,%ymm8,%ymm9
- DB 196,98,125,24,21,65,73,2,0 ; vbroadcastss 0x24941(%rip),%ymm10 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ DB 196,98,125,24,21,129,171,1,0 ; vbroadcastss 0x1ab81(%rip),%ymm10 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
DB 196,65,60,89,201 ; vmulps %ymm9,%ymm8,%ymm9
- DB 196,98,125,24,21,194,71,2,0 ; vbroadcastss 0x247c2(%rip),%ymm10 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,21,2,170,1,0 ; vbroadcastss 0x1aa02(%rip),%ymm10 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,13,35,73,2,0 ; vbroadcastss 0x24923(%rip),%ymm9 # 34218 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ DB 196,98,125,24,13,99,171,1,0 ; vbroadcastss 0x1ab63(%rip),%ymm9 # 2a458 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -14647,17 +14647,17 @@ _sk_bicubic_n1y_avx LABEL PROC
PUBLIC _sk_bicubic_p1y_avx
_sk_bicubic_p1y_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,147,71,2,0 ; vbroadcastss 0x24793(%rip),%ymm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 196,98,125,24,5,211,169,1,0 ; vbroadcastss 0x1a9d3(%rip),%ymm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 197,188,88,72,32 ; vaddps 0x20(%rax),%ymm8,%ymm1
DB 197,124,16,72,96 ; vmovups 0x60(%rax),%ymm9
- DB 196,98,125,24,21,240,72,2,0 ; vbroadcastss 0x248f0(%rip),%ymm10 # 34214 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ DB 196,98,125,24,21,48,171,1,0 ; vbroadcastss 0x1ab30(%rip),%ymm10 # 2a454 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
DB 196,65,52,89,210 ; vmulps %ymm10,%ymm9,%ymm10
- DB 196,98,125,24,29,222,72,2,0 ; vbroadcastss 0x248de(%rip),%ymm11 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ DB 196,98,125,24,29,30,171,1,0 ; vbroadcastss 0x1ab1e(%rip),%ymm11 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
DB 196,65,52,89,210 ; vmulps %ymm10,%ymm9,%ymm10
DB 196,65,44,88,192 ; vaddps %ymm8,%ymm10,%ymm8
DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
- DB 196,98,125,24,13,201,72,2,0 ; vbroadcastss 0x248c9(%rip),%ymm9 # 34218 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ DB 196,98,125,24,13,9,171,1,0 ; vbroadcastss 0x1ab09(%rip),%ymm9 # 2a458 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -14666,13 +14666,13 @@ _sk_bicubic_p1y_avx LABEL PROC
PUBLIC _sk_bicubic_p3y_avx
_sk_bicubic_p3y_avx LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,165,72,2,0 ; vbroadcastss 0x248a5(%rip),%ymm1 # 34210 <_sk_srcover_rgba_8888_sse2_lowp+0xddc>
+ DB 196,226,125,24,13,229,170,1,0 ; vbroadcastss 0x1aae5(%rip),%ymm1 # 2a450 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
DB 197,244,88,72,32 ; vaddps 0x20(%rax),%ymm1,%ymm1
DB 197,124,16,64,96 ; vmovups 0x60(%rax),%ymm8
DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,137,72,2,0 ; vbroadcastss 0x24889(%rip),%ymm10 # 3420c <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
+ DB 196,98,125,24,21,201,170,1,0 ; vbroadcastss 0x1aac9(%rip),%ymm10 # 2a44c <_sk_srcover_rgba_8888_sse2_lowp+0x994>
DB 196,65,60,89,194 ; vmulps %ymm10,%ymm8,%ymm8
- DB 196,98,125,24,21,135,71,2,0 ; vbroadcastss 0x24787(%rip),%ymm10 # 34118 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ DB 196,98,125,24,21,199,169,1,0 ; vbroadcastss 0x1a9c7(%rip),%ymm10 # 2a358 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
DB 196,65,60,88,194 ; vaddps %ymm10,%ymm8,%ymm8
DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
DB 197,124,17,128,160,0,0,0 ; vmovups %ymm8,0xa0(%rax)
@@ -14808,7 +14808,7 @@ _sk_clut_3D_avx LABEL PROC
DB 72,139,0 ; mov (%rax),%rax
DB 197,217,254,207 ; vpaddd %xmm7,%xmm4,%xmm1
DB 197,249,254,193 ; vpaddd %xmm1,%xmm0,%xmm0
- DB 196,226,121,24,37,43,70,2,0 ; vbroadcastss 0x2462b(%rip),%xmm4 # 34220 <_sk_srcover_rgba_8888_sse2_lowp+0xdec>
+ DB 196,226,121,24,37,107,168,1,0 ; vbroadcastss 0x1a86b(%rip),%xmm4 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
DB 196,98,121,64,228 ; vpmulld %xmm4,%xmm0,%xmm12
DB 196,226,49,64,198 ; vpmulld %xmm6,%xmm9,%xmm0
DB 197,249,127,132,36,0,1,0,0 ; vmovdqa %xmm0,0x100(%rsp)
@@ -14862,7 +14862,7 @@ _sk_clut_3D_avx LABEL PROC
DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
DB 196,227,77,24,237,1 ; vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- DB 196,98,121,24,21,148,67,2,0 ; vbroadcastss 0x24394(%rip),%xmm10 # 340b4 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ DB 196,98,121,24,21,212,165,1,0 ; vbroadcastss 0x1a5d4(%rip),%xmm10 # 2a2f4 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
DB 196,193,105,254,210 ; vpaddd %xmm10,%xmm2,%xmm2
DB 196,195,249,22,208,1 ; vpextrq $0x1,%xmm2,%r8
DB 196,193,249,126,209 ; vmovq %xmm2,%r9
@@ -14890,7 +14890,7 @@ _sk_clut_3D_avx LABEL PROC
DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
DB 196,227,77,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- DB 196,226,125,24,61,104,68,2,0 ; vbroadcastss 0x24468(%rip),%ymm7 # 3421c <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ DB 196,226,125,24,61,168,166,1,0 ; vbroadcastss 0x1a6a8(%rip),%ymm7 # 2a45c <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
DB 197,148,88,247 ; vaddps %ymm7,%ymm13,%ymm6
DB 197,124,40,231 ; vmovaps %ymm7,%ymm12
DB 197,124,17,164,36,128,0,0,0 ; vmovups %ymm12,0x80(%rsp)
@@ -15631,7 +15631,7 @@ _sk_clut_4D_avx LABEL PROC
DB 197,249,127,132,36,160,0,0,0 ; vmovdqa %xmm0,0xa0(%rsp)
DB 197,225,254,216 ; vpaddd %xmm0,%xmm3,%xmm3
DB 197,233,254,195 ; vpaddd %xmm3,%xmm2,%xmm0
- DB 196,98,121,24,13,249,52,2,0 ; vbroadcastss 0x234f9(%rip),%xmm9 # 34220 <_sk_srcover_rgba_8888_sse2_lowp+0xdec>
+ DB 196,98,121,24,13,57,151,1,0 ; vbroadcastss 0x19739(%rip),%xmm9 # 2a460 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
DB 196,194,121,64,209 ; vpmulld %xmm9,%xmm0,%xmm2
DB 196,226,81,64,199 ; vpmulld %xmm7,%xmm5,%xmm0
DB 197,249,127,132,36,224,1,0,0 ; vmovdqa %xmm0,0x1e0(%rsp)
@@ -15688,7 +15688,7 @@ _sk_clut_4D_avx LABEL PROC
DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
DB 196,227,77,24,237,1 ; vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- DB 196,98,121,24,21,82,50,2,0 ; vbroadcastss 0x23252(%rip),%xmm10 # 340b4 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ DB 196,98,121,24,21,146,148,1,0 ; vbroadcastss 0x19492(%rip),%xmm10 # 2a2f4 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
DB 196,193,121,254,194 ; vpaddd %xmm10,%xmm0,%xmm0
DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
DB 196,193,249,126,193 ; vmovq %xmm0,%r9
@@ -15716,7 +15716,7 @@ _sk_clut_4D_avx LABEL PROC
DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
DB 196,227,105,33,214,48 ; vinsertps $0x30,%xmm6,%xmm2,%xmm2
DB 196,227,109,24,208,1 ; vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- DB 196,98,125,24,37,38,51,2,0 ; vbroadcastss 0x23326(%rip),%ymm12 # 3421c <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
+ DB 196,98,125,24,37,102,149,1,0 ; vbroadcastss 0x19566(%rip),%ymm12 # 2a45c <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
DB 196,193,4,88,196 ; vaddps %ymm12,%ymm15,%ymm0
DB 197,124,17,164,36,128,0,0,0 ; vmovups %ymm12,0x80(%rsp)
DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
@@ -17114,7 +17114,7 @@ _sk_clut_4D_avx LABEL PROC
DB 197,228,89,210 ; vmulps %ymm2,%ymm3,%ymm2
DB 197,220,88,210 ; vaddps %ymm2,%ymm4,%ymm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,44,20,2,0 ; vbroadcastss 0x2142c(%rip),%ymm3 # 340a8 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ DB 196,226,125,24,29,108,118,1,0 ; vbroadcastss 0x1766c(%rip),%ymm3 # 2a2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
DB 197,252,16,164,36,192,2,0,0 ; vmovups 0x2c0(%rsp),%ymm4
DB 197,252,16,172,36,224,2,0,0 ; vmovups 0x2e0(%rsp),%ymm5
DB 197,252,16,180,36,0,3,0,0 ; vmovups 0x300(%rsp),%ymm6
@@ -17214,13 +17214,13 @@ _sk_seed_shader_sse41 LABEL PROC
DB 102,15,110,194 ; movd %edx,%xmm0
DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,88,5,180,20,2,0 ; addps 0x214b4(%rip),%xmm0 # 342b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe7c>
+ DB 15,88,5,212,118,1,0 ; addps 0x176d4(%rip),%xmm0 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
DB 102,15,110,201 ; movd %ecx,%xmm1
DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,88,13,177,20,2,0 ; addps 0x214b1(%rip),%xmm1 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 15,88,13,209,118,1,0 ; addps 0x176d1(%rip),%xmm1 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,21,184,20,2,0 ; movaps 0x214b8(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,21,216,118,1,0 ; movaps 0x176d8(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,87,219 ; xorps %xmm3,%xmm3
DB 15,87,228 ; xorps %xmm4,%xmm4
DB 15,87,237 ; xorps %xmm5,%xmm5
@@ -17233,18 +17233,18 @@ _sk_dither_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 102,68,15,110,194 ; movd %edx,%xmm8
DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 102,68,15,254,5,81,20,2,0 ; paddd 0x21451(%rip),%xmm8 # 34290 <_sk_srcover_rgba_8888_sse2_lowp+0xe5c>
+ DB 102,68,15,254,5,113,118,1,0 ; paddd 0x17671(%rip),%xmm8 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
DB 102,68,15,110,201 ; movd %ecx,%xmm9
DB 102,69,15,112,201,0 ; pshufd $0x0,%xmm9,%xmm9
DB 102,69,15,239,200 ; pxor %xmm8,%xmm9
- DB 102,68,15,111,21,136,20,2,0 ; movdqa 0x21488(%rip),%xmm10 # 342e0 <_sk_srcover_rgba_8888_sse2_lowp+0xeac>
+ DB 102,68,15,111,21,168,118,1,0 ; movdqa 0x176a8(%rip),%xmm10 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0xa48>
DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
DB 102,69,15,219,218 ; pand %xmm10,%xmm11
DB 102,65,15,114,243,5 ; pslld $0x5,%xmm11
DB 102,69,15,219,208 ; pand %xmm8,%xmm10
DB 102,65,15,114,242,4 ; pslld $0x4,%xmm10
- DB 102,68,15,111,37,116,20,2,0 ; movdqa 0x21474(%rip),%xmm12 # 342f0 <_sk_srcover_rgba_8888_sse2_lowp+0xebc>
- DB 102,68,15,111,45,123,20,2,0 ; movdqa 0x2147b(%rip),%xmm13 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,68,15,111,37,148,118,1,0 ; movdqa 0x17694(%rip),%xmm12 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
+ DB 102,68,15,111,45,155,118,1,0 ; movdqa 0x1769b(%rip),%xmm13 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,69,15,111,241 ; movdqa %xmm9,%xmm14
DB 102,69,15,219,245 ; pand %xmm13,%xmm14
DB 102,65,15,114,246,2 ; pslld $0x2,%xmm14
@@ -17260,8 +17260,8 @@ _sk_dither_sse41 LABEL PROC
DB 102,69,15,235,198 ; por %xmm14,%xmm8
DB 102,69,15,235,193 ; por %xmm9,%xmm8
DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,54,20,2,0 ; mulps 0x21436(%rip),%xmm8 # 34310 <_sk_srcover_rgba_8888_sse2_lowp+0xedc>
- DB 68,15,88,5,62,20,2,0 ; addps 0x2143e(%rip),%xmm8 # 34320 <_sk_srcover_rgba_8888_sse2_lowp+0xeec>
+ DB 68,15,89,5,86,118,1,0 ; mulps 0x17656(%rip),%xmm8 # 2a530 <_sk_srcover_rgba_8888_sse2_lowp+0xa78>
+ DB 68,15,88,5,94,118,1,0 ; addps 0x1765e(%rip),%xmm8 # 2a540 <_sk_srcover_rgba_8888_sse2_lowp+0xa88>
DB 243,68,15,16,16 ; movss (%rax),%xmm10
DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
DB 69,15,89,208 ; mulps %xmm8,%xmm10
@@ -17299,7 +17299,7 @@ _sk_uniform_color_sse41 LABEL PROC
PUBLIC _sk_black_color_sse41
_sk_black_color_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,116,19,2,0 ; movaps 0x21374(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,148,117,1,0 ; movaps 0x17594(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,87,201 ; xorps %xmm1,%xmm1
DB 15,87,210 ; xorps %xmm2,%xmm2
@@ -17308,7 +17308,7 @@ _sk_black_color_sse41 LABEL PROC
PUBLIC _sk_white_color_sse41
_sk_white_color_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,5,96,19,2,0 ; movaps 0x21360(%rip),%xmm0 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,5,128,117,1,0 ; movaps 0x17580(%rip),%xmm0 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,40,216 ; movaps %xmm0,%xmm3
@@ -17346,7 +17346,7 @@ _sk_clear_sse41 LABEL PROC
PUBLIC _sk_srcatop_sse41
_sk_srcatop_sse41 LABEL PROC
DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 68,15,40,5,16,19,2,0 ; movaps 0x21310(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,48,117,1,0 ; movaps 0x17530(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,195 ; subps %xmm3,%xmm8
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 68,15,89,204 ; mulps %xmm4,%xmm9
@@ -17369,7 +17369,7 @@ PUBLIC _sk_dstatop_sse41
_sk_dstatop_sse41 LABEL PROC
DB 68,15,40,195 ; movaps %xmm3,%xmm8
DB 68,15,89,196 ; mulps %xmm4,%xmm8
- DB 68,15,40,13,195,18,2,0 ; movaps 0x212c3(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,227,116,1,0 ; movaps 0x174e3(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,207 ; subps %xmm7,%xmm9
DB 65,15,89,193 ; mulps %xmm9,%xmm0
DB 65,15,88,192 ; addps %xmm8,%xmm0
@@ -17410,7 +17410,7 @@ _sk_dstin_sse41 LABEL PROC
PUBLIC _sk_srcout_sse41
_sk_srcout_sse41 LABEL PROC
- DB 68,15,40,5,87,18,2,0 ; movaps 0x21257(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,119,116,1,0 ; movaps 0x17477(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,199 ; subps %xmm7,%xmm8
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 65,15,89,200 ; mulps %xmm8,%xmm1
@@ -17421,7 +17421,7 @@ _sk_srcout_sse41 LABEL PROC
PUBLIC _sk_dstout_sse41
_sk_dstout_sse41 LABEL PROC
- DB 68,15,40,5,55,18,2,0 ; movaps 0x21237(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,87,116,1,0 ; movaps 0x17457(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,195 ; subps %xmm3,%xmm8
DB 65,15,40,192 ; movaps %xmm8,%xmm0
DB 15,89,196 ; mulps %xmm4,%xmm0
@@ -17436,7 +17436,7 @@ _sk_dstout_sse41 LABEL PROC
PUBLIC _sk_srcover_sse41
_sk_srcover_sse41 LABEL PROC
- DB 68,15,40,5,10,18,2,0 ; movaps 0x2120a(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,42,116,1,0 ; movaps 0x1742a(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,195 ; subps %xmm3,%xmm8
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 68,15,89,204 ; mulps %xmm4,%xmm9
@@ -17454,7 +17454,7 @@ _sk_srcover_sse41 LABEL PROC
PUBLIC _sk_dstover_sse41
_sk_dstover_sse41 LABEL PROC
- DB 68,15,40,5,206,17,2,0 ; movaps 0x211ce(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,238,115,1,0 ; movaps 0x173ee(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,199 ; subps %xmm7,%xmm8
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 15,88,196 ; addps %xmm4,%xmm0
@@ -17478,7 +17478,7 @@ _sk_modulate_sse41 LABEL PROC
PUBLIC _sk_multiply_sse41
_sk_multiply_sse41 LABEL PROC
- DB 68,15,40,5,146,17,2,0 ; movaps 0x21192(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,178,115,1,0 ; movaps 0x173b2(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 68,15,92,207 ; subps %xmm7,%xmm9
DB 69,15,40,209 ; movaps %xmm9,%xmm10
@@ -17514,7 +17514,7 @@ _sk_multiply_sse41 LABEL PROC
PUBLIC _sk_plus__sse41
_sk_plus__sse41 LABEL PROC
DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,40,5,19,17,2,0 ; movaps 0x21113(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,51,115,1,0 ; movaps 0x17333(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 65,15,93,192 ; minps %xmm8,%xmm0
DB 15,88,205 ; addps %xmm5,%xmm1
DB 65,15,93,200 ; minps %xmm8,%xmm1
@@ -17552,7 +17552,7 @@ _sk_screen_sse41 LABEL PROC
PUBLIC _sk_xor__sse41
_sk_xor__sse41 LABEL PROC
DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 15,40,29,159,16,2,0 ; movaps 0x2109f(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,191,114,1,0 ; movaps 0x172bf(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,40,203 ; movaps %xmm3,%xmm9
DB 68,15,92,207 ; subps %xmm7,%xmm9
DB 65,15,89,193 ; mulps %xmm9,%xmm0
@@ -17598,7 +17598,7 @@ _sk_darken_sse41 LABEL PROC
DB 68,15,89,206 ; mulps %xmm6,%xmm9
DB 65,15,95,209 ; maxps %xmm9,%xmm2
DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,250,15,2,0 ; movaps 0x20ffa(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,21,26,114,1,0 ; movaps 0x1721a(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,211 ; subps %xmm3,%xmm2
DB 15,89,215 ; mulps %xmm7,%xmm2
DB 15,88,218 ; addps %xmm2,%xmm3
@@ -17630,7 +17630,7 @@ _sk_lighten_sse41 LABEL PROC
DB 68,15,89,206 ; mulps %xmm6,%xmm9
DB 65,15,93,209 ; minps %xmm9,%xmm2
DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,143,15,2,0 ; movaps 0x20f8f(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,21,175,113,1,0 ; movaps 0x171af(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,211 ; subps %xmm3,%xmm2
DB 15,89,215 ; mulps %xmm7,%xmm2
DB 15,88,218 ; addps %xmm2,%xmm3
@@ -17665,7 +17665,7 @@ _sk_difference_sse41 LABEL PROC
DB 65,15,93,209 ; minps %xmm9,%xmm2
DB 15,88,210 ; addps %xmm2,%xmm2
DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,25,15,2,0 ; movaps 0x20f19(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,21,57,113,1,0 ; movaps 0x17139(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,211 ; subps %xmm3,%xmm2
DB 15,89,215 ; mulps %xmm7,%xmm2
DB 15,88,218 ; addps %xmm2,%xmm3
@@ -17691,7 +17691,7 @@ _sk_exclusion_sse41 LABEL PROC
DB 15,89,214 ; mulps %xmm6,%xmm2
DB 15,88,210 ; addps %xmm2,%xmm2
DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,201,14,2,0 ; movaps 0x20ec9(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,21,233,112,1,0 ; movaps 0x170e9(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,211 ; subps %xmm3,%xmm2
DB 15,89,215 ; mulps %xmm7,%xmm2
DB 15,88,218 ; addps %xmm2,%xmm3
@@ -17701,7 +17701,7 @@ _sk_exclusion_sse41 LABEL PROC
PUBLIC _sk_colorburn_sse41
_sk_colorburn_sse41 LABEL PROC
- DB 68,15,40,29,176,14,2,0 ; movaps 0x20eb0(%rip),%xmm11 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,29,208,112,1,0 ; movaps 0x170d0(%rip),%xmm11 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,227 ; movaps %xmm11,%xmm12
DB 68,15,92,231 ; subps %xmm7,%xmm12
DB 69,15,40,204 ; movaps %xmm12,%xmm9
@@ -17783,7 +17783,7 @@ _sk_colorburn_sse41 LABEL PROC
PUBLIC _sk_colordodge_sse41
_sk_colordodge_sse41 LABEL PROC
DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 68,15,40,21,122,13,2,0 ; movaps 0x20d7a(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,21,154,111,1,0 ; movaps 0x16f9a(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,218 ; movaps %xmm10,%xmm11
DB 68,15,92,223 ; subps %xmm7,%xmm11
DB 69,15,40,227 ; movaps %xmm11,%xmm12
@@ -17864,7 +17864,7 @@ _sk_hardlight_sse41 LABEL PROC
DB 15,40,244 ; movaps %xmm4,%xmm6
DB 15,40,227 ; movaps %xmm3,%xmm4
DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 68,15,40,21,66,12,2,0 ; movaps 0x20c42(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,21,98,110,1,0 ; movaps 0x16e62(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 65,15,40,234 ; movaps %xmm10,%xmm5
DB 15,92,239 ; subps %xmm7,%xmm5
DB 15,40,197 ; movaps %xmm5,%xmm0
@@ -17946,7 +17946,7 @@ PUBLIC _sk_overlay_sse41
_sk_overlay_sse41 LABEL PROC
DB 68,15,40,201 ; movaps %xmm1,%xmm9
DB 68,15,40,240 ; movaps %xmm0,%xmm14
- DB 68,15,40,21,20,11,2,0 ; movaps 0x20b14(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,21,52,109,1,0 ; movaps 0x16d34(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,218 ; movaps %xmm10,%xmm11
DB 68,15,92,223 ; subps %xmm7,%xmm11
DB 65,15,40,195 ; movaps %xmm11,%xmm0
@@ -18030,7 +18030,7 @@ _sk_softlight_sse41 LABEL PROC
DB 15,40,198 ; movaps %xmm6,%xmm0
DB 15,94,199 ; divps %xmm7,%xmm0
DB 65,15,84,193 ; andps %xmm9,%xmm0
- DB 15,40,13,215,9,2,0 ; movaps 0x209d7(%rip),%xmm1 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,13,247,107,1,0 ; movaps 0x16bf7(%rip),%xmm1 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,40,209 ; movaps %xmm1,%xmm10
DB 68,15,92,208 ; subps %xmm0,%xmm10
DB 68,15,40,240 ; movaps %xmm0,%xmm14
@@ -18043,10 +18043,10 @@ _sk_softlight_sse41 LABEL PROC
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,89,210 ; mulps %xmm2,%xmm2
DB 15,88,208 ; addps %xmm0,%xmm2
- DB 68,15,40,45,5,10,2,0 ; movaps 0x20a05(%rip),%xmm13 # 34330 <_sk_srcover_rgba_8888_sse2_lowp+0xefc>
+ DB 68,15,40,45,37,108,1,0 ; movaps 0x16c25(%rip),%xmm13 # 2a550 <_sk_srcover_rgba_8888_sse2_lowp+0xa98>
DB 69,15,88,245 ; addps %xmm13,%xmm14
DB 68,15,89,242 ; mulps %xmm2,%xmm14
- DB 68,15,40,37,5,10,2,0 ; movaps 0x20a05(%rip),%xmm12 # 34340 <_sk_srcover_rgba_8888_sse2_lowp+0xf0c>
+ DB 68,15,40,37,37,108,1,0 ; movaps 0x16c25(%rip),%xmm12 # 2a560 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
DB 69,15,89,252 ; mulps %xmm12,%xmm15
DB 69,15,88,254 ; addps %xmm14,%xmm15
DB 15,40,198 ; movaps %xmm6,%xmm0
@@ -18232,12 +18232,12 @@ _sk_hue_sse41 LABEL PROC
DB 68,15,84,208 ; andps %xmm0,%xmm10
DB 15,84,200 ; andps %xmm0,%xmm1
DB 68,15,84,232 ; andps %xmm0,%xmm13
- DB 15,40,5,107,7,2,0 ; movaps 0x2076b(%rip),%xmm0 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 15,40,5,139,105,1,0 ; movaps 0x1698b(%rip),%xmm0 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 15,40,21,112,7,2,0 ; movaps 0x20770(%rip),%xmm2 # 34360 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ DB 15,40,21,144,105,1,0 ; movaps 0x16990(%rip),%xmm2 # 2a580 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
DB 15,89,250 ; mulps %xmm2,%xmm7
DB 65,15,88,252 ; addps %xmm12,%xmm7
- DB 68,15,40,53,113,7,2,0 ; movaps 0x20771(%rip),%xmm14 # 34370 <_sk_srcover_rgba_8888_sse2_lowp+0xf3c>
+ DB 68,15,40,53,145,105,1,0 ; movaps 0x16991(%rip),%xmm14 # 2a590 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
DB 68,15,40,252 ; movaps %xmm4,%xmm15
DB 69,15,89,254 ; mulps %xmm14,%xmm15
DB 68,15,88,255 ; addps %xmm7,%xmm15
@@ -18320,7 +18320,7 @@ _sk_hue_sse41 LABEL PROC
DB 65,15,88,214 ; addps %xmm14,%xmm2
DB 15,40,196 ; movaps %xmm4,%xmm0
DB 102,15,56,20,202 ; blendvps %xmm0,%xmm2,%xmm1
- DB 68,15,40,13,134,5,2,0 ; movaps 0x20586(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,166,103,1,0 ; movaps 0x167a6(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 65,15,40,225 ; movaps %xmm9,%xmm4
DB 15,92,229 ; subps %xmm5,%xmm4
DB 15,40,68,36,48 ; movaps 0x30(%rsp),%xmm0
@@ -18414,14 +18414,14 @@ _sk_saturation_sse41 LABEL PROC
DB 68,15,84,215 ; andps %xmm7,%xmm10
DB 68,15,84,223 ; andps %xmm7,%xmm11
DB 68,15,84,199 ; andps %xmm7,%xmm8
- DB 15,40,21,169,4,2,0 ; movaps 0x204a9(%rip),%xmm2 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 15,40,21,201,102,1,0 ; movaps 0x166c9(%rip),%xmm2 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 15,40,221 ; movaps %xmm5,%xmm3
DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 15,40,13,172,4,2,0 ; movaps 0x204ac(%rip),%xmm1 # 34360 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ DB 15,40,13,204,102,1,0 ; movaps 0x166cc(%rip),%xmm1 # 2a580 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
DB 15,40,254 ; movaps %xmm6,%xmm7
DB 15,89,249 ; mulps %xmm1,%xmm7
DB 15,88,251 ; addps %xmm3,%xmm7
- DB 68,15,40,45,171,4,2,0 ; movaps 0x204ab(%rip),%xmm13 # 34370 <_sk_srcover_rgba_8888_sse2_lowp+0xf3c>
+ DB 68,15,40,45,203,102,1,0 ; movaps 0x166cb(%rip),%xmm13 # 2a590 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
DB 69,15,89,245 ; mulps %xmm13,%xmm14
DB 68,15,88,247 ; addps %xmm7,%xmm14
DB 65,15,40,218 ; movaps %xmm10,%xmm3
@@ -18502,7 +18502,7 @@ _sk_saturation_sse41 LABEL PROC
DB 65,15,88,253 ; addps %xmm13,%xmm7
DB 65,15,40,192 ; movaps %xmm8,%xmm0
DB 102,68,15,56,20,223 ; blendvps %xmm0,%xmm7,%xmm11
- DB 68,15,40,13,193,2,2,0 ; movaps 0x202c1(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,225,100,1,0 ; movaps 0x164e1(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,193 ; movaps %xmm9,%xmm8
DB 68,15,92,204 ; subps %xmm4,%xmm9
DB 15,40,60,36 ; movaps (%rsp),%xmm7
@@ -18557,14 +18557,14 @@ _sk_color_sse41 LABEL PROC
DB 15,40,231 ; movaps %xmm7,%xmm4
DB 68,15,89,244 ; mulps %xmm4,%xmm14
DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 68,15,40,13,118,2,2,0 ; movaps 0x20276(%rip),%xmm9 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 68,15,40,13,150,100,1,0 ; movaps 0x16496(%rip),%xmm9 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 65,15,40,250 ; movaps %xmm10,%xmm7
DB 65,15,89,249 ; mulps %xmm9,%xmm7
- DB 68,15,40,21,118,2,2,0 ; movaps 0x20276(%rip),%xmm10 # 34360 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ DB 68,15,40,21,150,100,1,0 ; movaps 0x16496(%rip),%xmm10 # 2a580 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
DB 65,15,40,219 ; movaps %xmm11,%xmm3
DB 65,15,89,218 ; mulps %xmm10,%xmm3
DB 15,88,223 ; addps %xmm7,%xmm3
- DB 68,15,40,29,115,2,2,0 ; movaps 0x20273(%rip),%xmm11 # 34370 <_sk_srcover_rgba_8888_sse2_lowp+0xf3c>
+ DB 68,15,40,29,147,100,1,0 ; movaps 0x16493(%rip),%xmm11 # 2a590 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
DB 69,15,40,236 ; movaps %xmm12,%xmm13
DB 69,15,89,235 ; mulps %xmm11,%xmm13
DB 68,15,88,235 ; addps %xmm3,%xmm13
@@ -18649,7 +18649,7 @@ _sk_color_sse41 LABEL PROC
DB 65,15,88,251 ; addps %xmm11,%xmm7
DB 65,15,40,194 ; movaps %xmm10,%xmm0
DB 102,15,56,20,207 ; blendvps %xmm0,%xmm7,%xmm1
- DB 68,15,40,13,127,0,2,0 ; movaps 0x2007f(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,159,98,1,0 ; movaps 0x1629f(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 15,92,196 ; subps %xmm4,%xmm0
DB 68,15,89,192 ; mulps %xmm0,%xmm8
@@ -18701,13 +18701,13 @@ _sk_luminosity_sse41 LABEL PROC
DB 69,15,89,216 ; mulps %xmm8,%xmm11
DB 68,15,40,203 ; movaps %xmm3,%xmm9
DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 68,15,40,5,65,0,2,0 ; movaps 0x20041(%rip),%xmm8 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 68,15,40,5,97,98,1,0 ; movaps 0x16261(%rip),%xmm8 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 68,15,40,21,69,0,2,0 ; movaps 0x20045(%rip),%xmm10 # 34360 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ DB 68,15,40,21,101,98,1,0 ; movaps 0x16265(%rip),%xmm10 # 2a580 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
DB 15,40,233 ; movaps %xmm1,%xmm5
DB 65,15,89,234 ; mulps %xmm10,%xmm5
DB 15,88,232 ; addps %xmm0,%xmm5
- DB 68,15,40,37,67,0,2,0 ; movaps 0x20043(%rip),%xmm12 # 34370 <_sk_srcover_rgba_8888_sse2_lowp+0xf3c>
+ DB 68,15,40,37,99,98,1,0 ; movaps 0x16263(%rip),%xmm12 # 2a590 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
DB 68,15,40,242 ; movaps %xmm2,%xmm14
DB 69,15,89,244 ; mulps %xmm12,%xmm14
DB 68,15,88,245 ; addps %xmm5,%xmm14
@@ -18792,7 +18792,7 @@ _sk_luminosity_sse41 LABEL PROC
DB 65,15,88,244 ; addps %xmm12,%xmm6
DB 65,15,40,195 ; movaps %xmm11,%xmm0
DB 102,68,15,56,20,206 ; blendvps %xmm0,%xmm6,%xmm9
- DB 15,40,5,73,254,1,0 ; movaps 0x1fe49(%rip),%xmm0 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,5,105,96,1,0 ; movaps 0x16069(%rip),%xmm0 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,92,215 ; subps %xmm7,%xmm2
DB 15,89,226 ; mulps %xmm2,%xmm4
@@ -18839,20 +18839,20 @@ _sk_srcover_rgba_8888_sse41 LABEL PROC
DB 15,133,219,0,0,0 ; jne 145f2 <_sk_srcover_rgba_8888_sse41+0xfb>
DB 243,65,15,111,60,128 ; movdqu (%r8,%rax,4),%xmm7
DB 72,133,255 ; test %rdi,%rdi
- DB 102,15,111,37,88,254,1,0 ; movdqa 0x1fe58(%rip),%xmm4 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,37,120,96,1,0 ; movdqa 0x16078(%rip),%xmm4 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,15,219,231 ; pand %xmm7,%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,15,56,0,45,84,254,1,0 ; pshufb 0x1fe54(%rip),%xmm5 # 34390 <_sk_srcover_rgba_8888_sse2_lowp+0xf5c>
+ DB 102,15,56,0,45,116,96,1,0 ; pshufb 0x16074(%rip),%xmm5 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,56,0,53,84,254,1,0 ; pshufb 0x1fe54(%rip),%xmm6 # 343a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf6c>
+ DB 102,15,56,0,53,116,96,1,0 ; pshufb 0x16074(%rip),%xmm6 # 2a5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
DB 102,15,114,215,24 ; psrld $0x18,%xmm7
DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
- DB 68,15,40,5,113,253,1,0 ; movaps 0x1fd71(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,145,95,1,0 ; movaps 0x15f91(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 68,15,40,37,69,254,1,0 ; movaps 0x1fe45(%rip),%xmm12 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,40,37,101,96,1,0 ; movaps 0x16065(%rip),%xmm12 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 65,15,89,196 ; mulps %xmm12,%xmm0
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 68,15,89,204 ; mulps %xmm4,%xmm9
@@ -18928,7 +18928,7 @@ _sk_clamp_0_sse41 LABEL PROC
PUBLIC _sk_clamp_1_sse41
_sk_clamp_1_sse41 LABEL PROC
- DB 68,15,40,5,64,252,1,0 ; movaps 0x1fc40(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,96,94,1,0 ; movaps 0x15e60(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 65,15,93,192 ; minps %xmm8,%xmm0
DB 65,15,93,200 ; minps %xmm8,%xmm1
DB 65,15,93,208 ; minps %xmm8,%xmm2
@@ -18938,7 +18938,7 @@ _sk_clamp_1_sse41 LABEL PROC
PUBLIC _sk_clamp_a_sse41
_sk_clamp_a_sse41 LABEL PROC
- DB 15,93,29,37,252,1,0 ; minps 0x1fc25(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,93,29,69,94,1,0 ; minps 0x15e45(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,93,195 ; minps %xmm3,%xmm0
DB 15,93,203 ; minps %xmm3,%xmm1
DB 15,93,211 ; minps %xmm3,%xmm2
@@ -18947,7 +18947,7 @@ _sk_clamp_a_sse41 LABEL PROC
PUBLIC _sk_clamp_a_dst_sse41
_sk_clamp_a_dst_sse41 LABEL PROC
- DB 15,93,61,17,252,1,0 ; minps 0x1fc11(%rip),%xmm7 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,93,61,49,94,1,0 ; minps 0x15e31(%rip),%xmm7 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,93,231 ; minps %xmm7,%xmm4
DB 15,93,239 ; minps %xmm7,%xmm5
DB 15,93,247 ; minps %xmm7,%xmm6
@@ -18976,7 +18976,7 @@ _sk_swap_rb_sse41 LABEL PROC
PUBLIC _sk_invert_sse41
_sk_invert_sse41 LABEL PROC
- DB 68,15,40,5,205,251,1,0 ; movaps 0x1fbcd(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,237,93,1,0 ; movaps 0x15ded(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 68,15,92,200 ; subps %xmm0,%xmm9
DB 69,15,40,208 ; movaps %xmm8,%xmm10
@@ -19028,7 +19028,7 @@ _sk_premul_dst_sse41 LABEL PROC
PUBLIC _sk_unpremul_sse41
_sk_unpremul_sse41 LABEL PROC
DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,40,13,87,251,1,0 ; movaps 0x1fb57(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,119,93,1,0 ; movaps 0x15d77(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,94,203 ; divps %xmm3,%xmm9
DB 68,15,194,195,4 ; cmpneqps %xmm3,%xmm8
DB 69,15,84,193 ; andps %xmm9,%xmm8
@@ -19040,20 +19040,20 @@ _sk_unpremul_sse41 LABEL PROC
PUBLIC _sk_from_srgb_sse41
_sk_from_srgb_sse41 LABEL PROC
- DB 68,15,40,29,34,252,1,0 ; movaps 0x1fc22(%rip),%xmm11 # 343c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf8c>
+ DB 68,15,40,29,66,94,1,0 ; movaps 0x15e42(%rip),%xmm11 # 2a5e0 <_sk_srcover_rgba_8888_sse2_lowp+0xb28>
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,89,203 ; mulps %xmm11,%xmm9
DB 68,15,40,208 ; movaps %xmm0,%xmm10
DB 69,15,89,210 ; mulps %xmm10,%xmm10
- DB 68,15,40,37,154,251,1,0 ; movaps 0x1fb9a(%rip),%xmm12 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 68,15,40,37,186,93,1,0 ; movaps 0x15dba(%rip),%xmm12 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 68,15,40,192 ; movaps %xmm0,%xmm8
DB 69,15,89,196 ; mulps %xmm12,%xmm8
- DB 68,15,40,45,10,252,1,0 ; movaps 0x1fc0a(%rip),%xmm13 # 343d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf9c>
+ DB 68,15,40,45,42,94,1,0 ; movaps 0x15e2a(%rip),%xmm13 # 2a5f0 <_sk_srcover_rgba_8888_sse2_lowp+0xb38>
DB 69,15,88,197 ; addps %xmm13,%xmm8
DB 69,15,89,194 ; mulps %xmm10,%xmm8
- DB 68,15,40,53,10,252,1,0 ; movaps 0x1fc0a(%rip),%xmm14 # 343e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfac>
+ DB 68,15,40,53,42,94,1,0 ; movaps 0x15e2a(%rip),%xmm14 # 2a600 <_sk_srcover_rgba_8888_sse2_lowp+0xb48>
DB 69,15,88,198 ; addps %xmm14,%xmm8
- DB 68,15,40,61,14,252,1,0 ; movaps 0x1fc0e(%rip),%xmm15 # 343f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfbc>
+ DB 68,15,40,61,46,94,1,0 ; movaps 0x15e2e(%rip),%xmm15 # 2a610 <_sk_srcover_rgba_8888_sse2_lowp+0xb58>
DB 65,15,194,199,1 ; cmpltps %xmm15,%xmm0
DB 102,69,15,56,20,193 ; blendvps %xmm0,%xmm9,%xmm8
DB 68,15,40,209 ; movaps %xmm1,%xmm10
@@ -19088,19 +19088,19 @@ PUBLIC _sk_from_srgb_dst_sse41
_sk_from_srgb_dst_sse41 LABEL PROC
DB 68,15,40,204 ; movaps %xmm4,%xmm9
DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 68,15,40,29,89,251,1,0 ; movaps 0x1fb59(%rip),%xmm11 # 343c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf8c>
+ DB 68,15,40,29,121,93,1,0 ; movaps 0x15d79(%rip),%xmm11 # 2a5e0 <_sk_srcover_rgba_8888_sse2_lowp+0xb28>
DB 69,15,40,209 ; movaps %xmm9,%xmm10
DB 69,15,89,211 ; mulps %xmm11,%xmm10
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,37,210,250,1,0 ; movaps 0x1fad2(%rip),%xmm12 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 68,15,40,37,242,92,1,0 ; movaps 0x15cf2(%rip),%xmm12 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 65,15,89,228 ; mulps %xmm12,%xmm4
- DB 68,15,40,45,70,251,1,0 ; movaps 0x1fb46(%rip),%xmm13 # 343d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf9c>
+ DB 68,15,40,45,102,93,1,0 ; movaps 0x15d66(%rip),%xmm13 # 2a5f0 <_sk_srcover_rgba_8888_sse2_lowp+0xb38>
DB 65,15,88,229 ; addps %xmm13,%xmm4
DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 68,15,40,53,71,251,1,0 ; movaps 0x1fb47(%rip),%xmm14 # 343e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfac>
+ DB 68,15,40,53,103,93,1,0 ; movaps 0x15d67(%rip),%xmm14 # 2a600 <_sk_srcover_rgba_8888_sse2_lowp+0xb48>
DB 65,15,88,230 ; addps %xmm14,%xmm4
- DB 68,15,40,61,75,251,1,0 ; movaps 0x1fb4b(%rip),%xmm15 # 343f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfbc>
+ DB 68,15,40,61,107,93,1,0 ; movaps 0x15d6b(%rip),%xmm15 # 2a610 <_sk_srcover_rgba_8888_sse2_lowp+0xb58>
DB 69,15,194,207,1 ; cmpltps %xmm15,%xmm9
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 102,65,15,56,20,226 ; blendvps %xmm0,%xmm10,%xmm4
@@ -19143,22 +19143,22 @@ _sk_to_srgb_sse41 LABEL PROC
DB 15,40,218 ; movaps %xmm2,%xmm3
DB 15,40,209 ; movaps %xmm1,%xmm2
DB 68,15,82,192 ; rsqrtps %xmm0,%xmm8
- DB 68,15,40,29,188,250,1,0 ; movaps 0x1fabc(%rip),%xmm11 # 34400 <_sk_srcover_rgba_8888_sse2_lowp+0xfcc>
+ DB 68,15,40,29,220,92,1,0 ; movaps 0x15cdc(%rip),%xmm11 # 2a620 <_sk_srcover_rgba_8888_sse2_lowp+0xb68>
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 68,15,40,37,188,250,1,0 ; movaps 0x1fabc(%rip),%xmm12 # 34410 <_sk_srcover_rgba_8888_sse2_lowp+0xfdc>
+ DB 68,15,40,37,220,92,1,0 ; movaps 0x15cdc(%rip),%xmm12 # 2a630 <_sk_srcover_rgba_8888_sse2_lowp+0xb78>
DB 69,15,40,248 ; movaps %xmm8,%xmm15
DB 69,15,89,252 ; mulps %xmm12,%xmm15
- DB 68,15,40,21,188,250,1,0 ; movaps 0x1fabc(%rip),%xmm10 # 34420 <_sk_srcover_rgba_8888_sse2_lowp+0xfec>
+ DB 68,15,40,21,220,92,1,0 ; movaps 0x15cdc(%rip),%xmm10 # 2a640 <_sk_srcover_rgba_8888_sse2_lowp+0xb88>
DB 69,15,88,250 ; addps %xmm10,%xmm15
DB 69,15,89,248 ; mulps %xmm8,%xmm15
- DB 68,15,40,45,188,250,1,0 ; movaps 0x1fabc(%rip),%xmm13 # 34430 <_sk_srcover_rgba_8888_sse2_lowp+0xffc>
+ DB 68,15,40,45,220,92,1,0 ; movaps 0x15cdc(%rip),%xmm13 # 2a650 <_sk_srcover_rgba_8888_sse2_lowp+0xb98>
DB 69,15,88,253 ; addps %xmm13,%xmm15
- DB 68,15,40,53,192,250,1,0 ; movaps 0x1fac0(%rip),%xmm14 # 34440 <_sk_srcover_rgba_8888_sse2_lowp+0x100c>
+ DB 68,15,40,53,224,92,1,0 ; movaps 0x15ce0(%rip),%xmm14 # 2a660 <_sk_srcover_rgba_8888_sse2_lowp+0xba8>
DB 69,15,88,198 ; addps %xmm14,%xmm8
DB 69,15,83,192 ; rcpps %xmm8,%xmm8
DB 69,15,89,199 ; mulps %xmm15,%xmm8
- DB 68,15,40,61,188,250,1,0 ; movaps 0x1fabc(%rip),%xmm15 # 34450 <_sk_srcover_rgba_8888_sse2_lowp+0x101c>
+ DB 68,15,40,61,220,92,1,0 ; movaps 0x15cdc(%rip),%xmm15 # 2a670 <_sk_srcover_rgba_8888_sse2_lowp+0xbb8>
DB 65,15,194,199,1 ; cmpltps %xmm15,%xmm0
DB 102,69,15,56,20,193 ; blendvps %xmm0,%xmm9,%xmm8
DB 68,15,82,202 ; rsqrtps %xmm2,%xmm9
@@ -19212,7 +19212,7 @@ _sk_rgb_to_hsl_sse41 LABEL PROC
DB 68,15,93,224 ; minps %xmm0,%xmm12
DB 65,15,40,203 ; movaps %xmm11,%xmm1
DB 65,15,92,204 ; subps %xmm12,%xmm1
- DB 68,15,40,53,112,248,1,0 ; movaps 0x1f870(%rip),%xmm14 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,53,144,90,1,0 ; movaps 0x15a90(%rip),%xmm14 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,94,241 ; divps %xmm1,%xmm14
DB 69,15,40,211 ; movaps %xmm11,%xmm10
DB 69,15,194,208,0 ; cmpeqps %xmm8,%xmm10
@@ -19221,27 +19221,27 @@ _sk_rgb_to_hsl_sse41 LABEL PROC
DB 65,15,89,198 ; mulps %xmm14,%xmm0
DB 69,15,40,249 ; movaps %xmm9,%xmm15
DB 68,15,194,250,1 ; cmpltps %xmm2,%xmm15
- DB 68,15,84,61,215,249,1,0 ; andps 0x1f9d7(%rip),%xmm15 # 34460 <_sk_srcover_rgba_8888_sse2_lowp+0x102c>
+ DB 68,15,84,61,247,91,1,0 ; andps 0x15bf7(%rip),%xmm15 # 2a680 <_sk_srcover_rgba_8888_sse2_lowp+0xbc8>
DB 68,15,88,248 ; addps %xmm0,%xmm15
DB 65,15,40,195 ; movaps %xmm11,%xmm0
DB 65,15,194,193,0 ; cmpeqps %xmm9,%xmm0
DB 65,15,92,208 ; subps %xmm8,%xmm2
DB 65,15,89,214 ; mulps %xmm14,%xmm2
- DB 68,15,40,45,202,249,1,0 ; movaps 0x1f9ca(%rip),%xmm13 # 34470 <_sk_srcover_rgba_8888_sse2_lowp+0x103c>
+ DB 68,15,40,45,234,91,1,0 ; movaps 0x15bea(%rip),%xmm13 # 2a690 <_sk_srcover_rgba_8888_sse2_lowp+0xbd8>
DB 65,15,88,213 ; addps %xmm13,%xmm2
DB 69,15,92,193 ; subps %xmm9,%xmm8
DB 69,15,89,198 ; mulps %xmm14,%xmm8
- DB 68,15,88,5,198,249,1,0 ; addps 0x1f9c6(%rip),%xmm8 # 34480 <_sk_srcover_rgba_8888_sse2_lowp+0x104c>
+ DB 68,15,88,5,230,91,1,0 ; addps 0x15be6(%rip),%xmm8 # 2a6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe8>
DB 102,68,15,56,20,194 ; blendvps %xmm0,%xmm2,%xmm8
DB 65,15,40,194 ; movaps %xmm10,%xmm0
DB 102,69,15,56,20,199 ; blendvps %xmm0,%xmm15,%xmm8
- DB 68,15,89,5,190,249,1,0 ; mulps 0x1f9be(%rip),%xmm8 # 34490 <_sk_srcover_rgba_8888_sse2_lowp+0x105c>
+ DB 68,15,89,5,222,91,1,0 ; mulps 0x15bde(%rip),%xmm8 # 2a6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf8>
DB 69,15,40,203 ; movaps %xmm11,%xmm9
DB 69,15,194,204,4 ; cmpneqps %xmm12,%xmm9
DB 69,15,84,193 ; andps %xmm9,%xmm8
DB 69,15,92,235 ; subps %xmm11,%xmm13
DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 15,40,5,210,247,1,0 ; movaps 0x1f7d2(%rip),%xmm0 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 15,40,5,242,89,1,0 ; movaps 0x159f2(%rip),%xmm0 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 65,15,40,211 ; movaps %xmm11,%xmm2
DB 15,89,208 ; mulps %xmm0,%xmm2
DB 15,194,194,1 ; cmpltps %xmm2,%xmm0
@@ -19262,7 +19262,7 @@ _sk_hsl_to_rgb_sse41 LABEL PROC
DB 15,41,100,36,32 ; movaps %xmm4,0x20(%rsp)
DB 15,41,92,36,16 ; movaps %xmm3,0x10(%rsp)
DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 68,15,40,13,132,247,1,0 ; movaps 0x1f784(%rip),%xmm9 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,13,164,89,1,0 ; movaps 0x159a4(%rip),%xmm9 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 15,194,194,2 ; cmpleps %xmm2,%xmm0
DB 15,40,217 ; movaps %xmm1,%xmm3
@@ -19275,19 +19275,19 @@ _sk_hsl_to_rgb_sse41 LABEL PROC
DB 15,41,20,36 ; movaps %xmm2,(%rsp)
DB 69,15,88,192 ; addps %xmm8,%xmm8
DB 68,15,92,197 ; subps %xmm5,%xmm8
- DB 68,15,40,53,48,249,1,0 ; movaps 0x1f930(%rip),%xmm14 # 344a0 <_sk_srcover_rgba_8888_sse2_lowp+0x106c>
+ DB 68,15,40,53,80,91,1,0 ; movaps 0x15b50(%rip),%xmm14 # 2a6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc08>
DB 69,15,88,242 ; addps %xmm10,%xmm14
DB 102,65,15,58,8,198,1 ; roundps $0x1,%xmm14,%xmm0
DB 68,15,92,240 ; subps %xmm0,%xmm14
- DB 68,15,40,29,41,249,1,0 ; movaps 0x1f929(%rip),%xmm11 # 344b0 <_sk_srcover_rgba_8888_sse2_lowp+0x107c>
+ DB 68,15,40,29,73,91,1,0 ; movaps 0x15b49(%rip),%xmm11 # 2a6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc18>
DB 65,15,40,195 ; movaps %xmm11,%xmm0
DB 65,15,194,198,2 ; cmpleps %xmm14,%xmm0
DB 15,40,245 ; movaps %xmm5,%xmm6
DB 65,15,92,240 ; subps %xmm8,%xmm6
- DB 15,40,61,194,248,1,0 ; movaps 0x1f8c2(%rip),%xmm7 # 34460 <_sk_srcover_rgba_8888_sse2_lowp+0x102c>
+ DB 15,40,61,226,90,1,0 ; movaps 0x15ae2(%rip),%xmm7 # 2a680 <_sk_srcover_rgba_8888_sse2_lowp+0xbc8>
DB 69,15,40,238 ; movaps %xmm14,%xmm13
DB 68,15,89,239 ; mulps %xmm7,%xmm13
- DB 15,40,29,211,248,1,0 ; movaps 0x1f8d3(%rip),%xmm3 # 34480 <_sk_srcover_rgba_8888_sse2_lowp+0x104c>
+ DB 15,40,29,243,90,1,0 ; movaps 0x15af3(%rip),%xmm3 # 2a6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe8>
DB 68,15,40,227 ; movaps %xmm3,%xmm12
DB 69,15,92,229 ; subps %xmm13,%xmm12
DB 68,15,89,230 ; mulps %xmm6,%xmm12
@@ -19297,7 +19297,7 @@ _sk_hsl_to_rgb_sse41 LABEL PROC
DB 65,15,194,198,2 ; cmpleps %xmm14,%xmm0
DB 68,15,40,253 ; movaps %xmm5,%xmm15
DB 102,69,15,56,20,252 ; blendvps %xmm0,%xmm12,%xmm15
- DB 68,15,40,37,178,248,1,0 ; movaps 0x1f8b2(%rip),%xmm12 # 34490 <_sk_srcover_rgba_8888_sse2_lowp+0x105c>
+ DB 68,15,40,37,210,90,1,0 ; movaps 0x15ad2(%rip),%xmm12 # 2a6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf8>
DB 65,15,40,196 ; movaps %xmm12,%xmm0
DB 65,15,194,198,2 ; cmpleps %xmm14,%xmm0
DB 68,15,89,238 ; mulps %xmm6,%xmm13
@@ -19331,7 +19331,7 @@ _sk_hsl_to_rgb_sse41 LABEL PROC
DB 65,15,40,198 ; movaps %xmm14,%xmm0
DB 15,40,20,36 ; movaps (%rsp),%xmm2
DB 102,15,56,20,202 ; blendvps %xmm0,%xmm2,%xmm1
- DB 68,15,88,21,75,248,1,0 ; addps 0x1f84b(%rip),%xmm10 # 344c0 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ DB 68,15,88,21,107,90,1,0 ; addps 0x15a6b(%rip),%xmm10 # 2a6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
DB 102,65,15,58,8,194,1 ; roundps $0x1,%xmm10,%xmm0
DB 68,15,92,208 ; subps %xmm0,%xmm10
DB 69,15,194,218,2 ; cmpleps %xmm10,%xmm11
@@ -19385,9 +19385,9 @@ _sk_scale_u8_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,52 ; jne 14d60 <_sk_scale_u8_sse41+0x4c>
DB 102,71,15,56,49,4,16 ; pmovzxbd (%r8,%r10,1),%xmm8
- DB 102,68,15,219,5,68,246,1,0 ; pand 0x1f644(%rip),%xmm8 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,68,15,219,5,100,88,1,0 ; pand 0x15864(%rip),%xmm8 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,136,247,1,0 ; mulps 0x1f788(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,89,5,168,89,1,0 ; mulps 0x159a8(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 65,15,89,200 ; mulps %xmm8,%xmm1
DB 65,15,89,208 ; mulps %xmm8,%xmm2
@@ -19429,17 +19429,17 @@ _sk_scale_565_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,159,0,0,0 ; jne 14e7a <_sk_scale_565_sse41+0xc3>
DB 102,71,15,56,51,28,80 ; pmovzxwd (%r8,%r10,2),%xmm11
- DB 102,15,111,5,246,246,1,0 ; movdqa 0x1f6f6(%rip),%xmm0 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
+ DB 102,15,111,5,22,89,1,0 ; movdqa 0x15916(%rip),%xmm0 # 2a700 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
DB 102,65,15,219,195 ; pand %xmm11,%xmm0
DB 68,15,91,200 ; cvtdq2ps %xmm0,%xmm9
- DB 68,15,89,13,245,246,1,0 ; mulps 0x1f6f5(%rip),%xmm9 # 344f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
- DB 102,15,111,5,253,246,1,0 ; movdqa 0x1f6fd(%rip),%xmm0 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
+ DB 68,15,89,13,21,89,1,0 ; mulps 0x15915(%rip),%xmm9 # 2a710 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ DB 102,15,111,5,29,89,1,0 ; movdqa 0x1591d(%rip),%xmm0 # 2a720 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
DB 102,65,15,219,195 ; pand %xmm11,%xmm0
DB 68,15,91,208 ; cvtdq2ps %xmm0,%xmm10
- DB 68,15,89,21,252,246,1,0 ; mulps 0x1f6fc(%rip),%xmm10 # 34510 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
- DB 102,68,15,219,29,3,247,1,0 ; pand 0x1f703(%rip),%xmm11 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
+ DB 68,15,89,21,28,89,1,0 ; mulps 0x1591c(%rip),%xmm10 # 2a730 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 102,68,15,219,29,35,89,1,0 ; pand 0x15923(%rip),%xmm11 # 2a740 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
DB 69,15,91,219 ; cvtdq2ps %xmm11,%xmm11
- DB 68,15,89,29,7,247,1,0 ; mulps 0x1f707(%rip),%xmm11 # 34530 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
+ DB 68,15,89,29,39,89,1,0 ; mulps 0x15927(%rip),%xmm11 # 2a750 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
DB 15,40,195 ; movaps %xmm3,%xmm0
DB 15,194,199,1 ; cmpltps %xmm7,%xmm0
DB 69,15,40,226 ; movaps %xmm10,%xmm12
@@ -19512,9 +19512,9 @@ _sk_lerp_u8_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,72 ; jne 14f6a <_sk_lerp_u8_sse41+0x60>
DB 102,71,15,56,49,4,16 ; pmovzxbd (%r8,%r10,1),%xmm8
- DB 102,68,15,219,5,78,244,1,0 ; pand 0x1f44e(%rip),%xmm8 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,68,15,219,5,110,86,1,0 ; pand 0x1566e(%rip),%xmm8 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,146,245,1,0 ; mulps 0x1f592(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,89,5,178,87,1,0 ; mulps 0x157b2(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 15,92,196 ; subps %xmm4,%xmm0
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 15,88,196 ; addps %xmm4,%xmm0
@@ -19563,17 +19563,17 @@ _sk_lerp_565_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,165,0,0,0 ; jne 1508d <_sk_lerp_565_sse41+0xc9>
DB 102,71,15,56,51,20,80 ; pmovzxwd (%r8,%r10,2),%xmm10
- DB 102,15,111,5,233,244,1,0 ; movdqa 0x1f4e9(%rip),%xmm0 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
+ DB 102,15,111,5,9,87,1,0 ; movdqa 0x15709(%rip),%xmm0 # 2a700 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
DB 102,65,15,219,194 ; pand %xmm10,%xmm0
DB 68,15,91,200 ; cvtdq2ps %xmm0,%xmm9
- DB 68,15,89,13,232,244,1,0 ; mulps 0x1f4e8(%rip),%xmm9 # 344f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
- DB 102,15,111,5,240,244,1,0 ; movdqa 0x1f4f0(%rip),%xmm0 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
+ DB 68,15,89,13,8,87,1,0 ; mulps 0x15708(%rip),%xmm9 # 2a710 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ DB 102,15,111,5,16,87,1,0 ; movdqa 0x15710(%rip),%xmm0 # 2a720 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
DB 102,65,15,219,194 ; pand %xmm10,%xmm0
DB 68,15,91,216 ; cvtdq2ps %xmm0,%xmm11
- DB 68,15,89,29,239,244,1,0 ; mulps 0x1f4ef(%rip),%xmm11 # 34510 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
- DB 102,68,15,219,21,246,244,1,0 ; pand 0x1f4f6(%rip),%xmm10 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
+ DB 68,15,89,29,15,87,1,0 ; mulps 0x1570f(%rip),%xmm11 # 2a730 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 102,68,15,219,21,22,87,1,0 ; pand 0x15716(%rip),%xmm10 # 2a740 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
DB 69,15,91,210 ; cvtdq2ps %xmm10,%xmm10
- DB 68,15,89,21,250,244,1,0 ; mulps 0x1f4fa(%rip),%xmm10 # 34530 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
+ DB 68,15,89,21,26,87,1,0 ; mulps 0x1571a(%rip),%xmm10 # 2a750 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
DB 15,40,195 ; movaps %xmm3,%xmm0
DB 15,194,199,1 ; cmpltps %xmm7,%xmm0
DB 69,15,40,227 ; movaps %xmm11,%xmm12
@@ -19627,7 +19627,7 @@ _sk_load_tables_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,17,1,0,0 ; jne 15207 <_sk_load_tables_sse41+0x122>
DB 243,69,15,111,4,144 ; movdqu (%r8,%rdx,4),%xmm8
- DB 102,15,111,5,124,242,1,0 ; movdqa 0x1f27c(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,5,156,84,1,0 ; movdqa 0x1549c(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,65,15,219,192 ; pand %xmm8,%xmm0
DB 102,73,15,58,22,192,1 ; pextrq $0x1,%xmm0,%r8
DB 102,73,15,126,193 ; movq %xmm0,%r9
@@ -19642,7 +19642,7 @@ _sk_load_tables_sse41 LABEL PROC
DB 102,66,15,58,33,4,155,32 ; insertps $0x20,(%rbx,%r11,4),%xmm0
DB 102,66,15,58,33,4,3,48 ; insertps $0x30,(%rbx,%r8,1),%xmm0
DB 102,65,15,111,200 ; movdqa %xmm8,%xmm1
- DB 102,15,56,0,13,55,242,1,0 ; pshufb 0x1f237(%rip),%xmm1 # 34390 <_sk_srcover_rgba_8888_sse2_lowp+0xf5c>
+ DB 102,15,56,0,13,87,84,1,0 ; pshufb 0x15457(%rip),%xmm1 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
DB 102,73,15,58,22,200,1 ; pextrq $0x1,%xmm1,%r8
DB 102,72,15,126,203 ; movq %xmm1,%rbx
DB 68,15,182,203 ; movzbl %bl,%r9d
@@ -19657,7 +19657,7 @@ _sk_load_tables_sse41 LABEL PROC
DB 102,15,58,33,202,48 ; insertps $0x30,%xmm2,%xmm1
DB 76,139,64,24 ; mov 0x18(%rax),%r8
DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 102,15,56,0,21,243,241,1,0 ; pshufb 0x1f1f3(%rip),%xmm2 # 343a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf6c>
+ DB 102,15,56,0,21,19,84,1,0 ; pshufb 0x15413(%rip),%xmm2 # 2a5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
DB 102,72,15,58,22,211,1 ; pextrq $0x1,%xmm2,%rbx
DB 102,72,15,126,208 ; movq %xmm2,%rax
DB 68,15,182,200 ; movzbl %al,%r9d
@@ -19672,7 +19672,7 @@ _sk_load_tables_sse41 LABEL PROC
DB 102,15,58,33,211,48 ; insertps $0x30,%xmm3,%xmm2
DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
DB 65,15,91,216 ; cvtdq2ps %xmm8,%xmm3
- DB 15,89,29,208,242,1,0 ; mulps 0x1f2d0(%rip),%xmm3 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,29,240,84,1,0 ; mulps 0x154f0(%rip),%xmm3 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 91 ; pop %rbx
DB 65,94 ; pop %r14
@@ -19711,7 +19711,7 @@ _sk_load_tables_u16_be_sse41 LABEL PROC
DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
DB 102,68,15,105,200 ; punpckhwd %xmm0,%xmm9
- DB 102,68,15,111,5,162,242,1,0 ; movdqa 0x1f2a2(%rip),%xmm8 # 34540 <_sk_srcover_rgba_8888_sse2_lowp+0x110c>
+ DB 102,68,15,111,5,194,84,1,0 ; movdqa 0x154c2(%rip),%xmm8 # 2a760 <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
DB 102,65,15,219,192 ; pand %xmm8,%xmm0
DB 102,15,56,51,192 ; pmovzxwd %xmm0,%xmm0
@@ -19729,7 +19729,7 @@ _sk_load_tables_u16_be_sse41 LABEL PROC
DB 102,15,58,33,194,32 ; insertps $0x20,%xmm2,%xmm0
DB 243,66,15,16,20,3 ; movss (%rbx,%r8,1),%xmm2
DB 102,15,58,33,194,48 ; insertps $0x30,%xmm2,%xmm0
- DB 102,15,56,0,13,81,242,1,0 ; pshufb 0x1f251(%rip),%xmm1 # 34550 <_sk_srcover_rgba_8888_sse2_lowp+0x111c>
+ DB 102,15,56,0,13,113,84,1,0 ; pshufb 0x15471(%rip),%xmm1 # 2a770 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
DB 102,15,56,51,201 ; pmovzxwd %xmm1,%xmm1
DB 102,73,15,58,22,200,1 ; pextrq $0x1,%xmm1,%r8
DB 102,72,15,126,203 ; movq %xmm1,%rbx
@@ -19765,7 +19765,7 @@ _sk_load_tables_u16_be_sse41 LABEL PROC
DB 102,65,15,235,216 ; por %xmm8,%xmm3
DB 102,15,56,51,219 ; pmovzxwd %xmm3,%xmm3
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,159,241,1,0 ; mulps 0x1f19f(%rip),%xmm3 # 34560 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
+ DB 15,89,29,191,83,1,0 ; mulps 0x153bf(%rip),%xmm3 # 2a780 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 91 ; pop %rbx
DB 65,94 ; pop %r14
@@ -19803,7 +19803,7 @@ _sk_load_tables_rgb_u16_be_sse41 LABEL PROC
DB 102,15,97,209 ; punpcklwd %xmm1,%xmm2
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
DB 102,65,15,97,201 ; punpcklwd %xmm9,%xmm1
- DB 102,68,15,111,5,232,240,1,0 ; movdqa 0x1f0e8(%rip),%xmm8 # 34540 <_sk_srcover_rgba_8888_sse2_lowp+0x110c>
+ DB 102,68,15,111,5,8,83,1,0 ; movdqa 0x15308(%rip),%xmm8 # 2a760 <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
DB 102,65,15,219,192 ; pand %xmm8,%xmm0
DB 102,15,56,51,192 ; pmovzxwd %xmm0,%xmm0
@@ -19821,7 +19821,7 @@ _sk_load_tables_rgb_u16_be_sse41 LABEL PROC
DB 102,15,58,33,195,32 ; insertps $0x20,%xmm3,%xmm0
DB 243,66,15,16,28,3 ; movss (%rbx,%r8,1),%xmm3
DB 102,15,58,33,195,48 ; insertps $0x30,%xmm3,%xmm0
- DB 102,15,56,0,13,151,240,1,0 ; pshufb 0x1f097(%rip),%xmm1 # 34550 <_sk_srcover_rgba_8888_sse2_lowp+0x111c>
+ DB 102,15,56,0,13,183,82,1,0 ; pshufb 0x152b7(%rip),%xmm1 # 2a770 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
DB 102,15,56,51,201 ; pmovzxwd %xmm1,%xmm1
DB 102,73,15,58,22,200,1 ; pextrq $0x1,%xmm1,%r8
DB 102,72,15,126,203 ; movq %xmm1,%rbx
@@ -19852,7 +19852,7 @@ _sk_load_tables_rgb_u16_be_sse41 LABEL PROC
DB 243,65,15,16,28,24 ; movss (%r8,%rbx,1),%xmm3
DB 102,15,58,33,211,48 ; insertps $0x30,%xmm3,%xmm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,114,237,1,0 ; movaps 0x1ed72(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,146,79,1,0 ; movaps 0x14f92(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 91 ; pop %rbx
DB 65,94 ; pop %r14
DB 255,224 ; jmpq *%rax
@@ -19882,7 +19882,7 @@ _sk_byte_tables_sse41 LABEL PROC
DB 65,86 ; push %r14
DB 83 ; push %rbx
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,223,237,1,0 ; movaps 0x1eddf(%rip),%xmm8 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,40,5,255,79,1,0 ; movaps 0x14fff(%rip),%xmm8 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
DB 102,73,15,58,22,192,1 ; pextrq $0x1,%xmm0,%r8
@@ -19905,7 +19905,7 @@ _sk_byte_tables_sse41 LABEL PROC
DB 102,15,58,32,197,3 ; pinsrb $0x3,%ebp,%xmm0
DB 102,15,56,49,192 ; pmovzxbd %xmm0,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,13,149,238,1,0 ; movaps 0x1ee95(%rip),%xmm9 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,13,181,80,1,0 ; movaps 0x150b5(%rip),%xmm9 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,193 ; mulps %xmm9,%xmm0
DB 65,15,89,200 ; mulps %xmm8,%xmm1
DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
@@ -20005,7 +20005,7 @@ _sk_byte_tables_rgb_sse41 LABEL PROC
DB 102,15,58,32,197,3 ; pinsrb $0x3,%ebp,%xmm0
DB 102,15,56,49,192 ; pmovzxbd %xmm0,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,13,241,236,1,0 ; movaps 0x1ecf1(%rip),%xmm9 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,13,17,79,1,0 ; movaps 0x14f11(%rip),%xmm9 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,193 ; mulps %xmm9,%xmm0
DB 65,15,89,200 ; mulps %xmm8,%xmm1
DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
@@ -20177,31 +20177,31 @@ _sk_parametric_r_sse41 LABEL PROC
DB 69,15,88,208 ; addps %xmm8,%xmm10
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 69,15,91,194 ; cvtdq2ps %xmm10,%xmm8
- DB 68,15,89,5,204,234,1,0 ; mulps 0x1eacc(%rip),%xmm8 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 68,15,84,21,212,234,1,0 ; andps 0x1ead4(%rip),%xmm10 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
- DB 68,15,86,21,12,232,1,0 ; orps 0x1e80c(%rip),%xmm10 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
- DB 68,15,88,5,212,234,1,0 ; addps 0x1ead4(%rip),%xmm8 # 34590 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
- DB 68,15,40,37,220,234,1,0 ; movaps 0x1eadc(%rip),%xmm12 # 345a0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
+ DB 68,15,89,5,236,76,1,0 ; mulps 0x14cec(%rip),%xmm8 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 68,15,84,21,244,76,1,0 ; andps 0x14cf4(%rip),%xmm10 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 68,15,86,21,44,74,1,0 ; orps 0x14a2c(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
+ DB 68,15,88,5,244,76,1,0 ; addps 0x14cf4(%rip),%xmm8 # 2a7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 68,15,40,37,252,76,1,0 ; movaps 0x14cfc(%rip),%xmm12 # 2a7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
DB 69,15,89,226 ; mulps %xmm10,%xmm12
DB 69,15,92,196 ; subps %xmm12,%xmm8
- DB 68,15,88,21,220,234,1,0 ; addps 0x1eadc(%rip),%xmm10 # 345b0 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
- DB 68,15,40,37,228,234,1,0 ; movaps 0x1eae4(%rip),%xmm12 # 345c0 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
+ DB 68,15,88,21,252,76,1,0 ; addps 0x14cfc(%rip),%xmm10 # 2a7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 68,15,40,37,4,77,1,0 ; movaps 0x14d04(%rip),%xmm12 # 2a7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
DB 69,15,94,226 ; divps %xmm10,%xmm12
DB 69,15,92,196 ; subps %xmm12,%xmm8
DB 69,15,89,195 ; mulps %xmm11,%xmm8
DB 102,69,15,58,8,208,1 ; roundps $0x1,%xmm8,%xmm10
DB 69,15,40,216 ; movaps %xmm8,%xmm11
DB 69,15,92,218 ; subps %xmm10,%xmm11
- DB 68,15,88,5,209,234,1,0 ; addps 0x1ead1(%rip),%xmm8 # 345d0 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
- DB 68,15,40,21,217,234,1,0 ; movaps 0x1ead9(%rip),%xmm10 # 345e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
+ DB 68,15,88,5,241,76,1,0 ; addps 0x14cf1(%rip),%xmm8 # 2a7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ DB 68,15,40,21,249,76,1,0 ; movaps 0x14cf9(%rip),%xmm10 # 2a800 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
DB 69,15,89,211 ; mulps %xmm11,%xmm10
DB 69,15,92,194 ; subps %xmm10,%xmm8
- DB 68,15,40,21,217,234,1,0 ; movaps 0x1ead9(%rip),%xmm10 # 345f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
+ DB 68,15,40,21,249,76,1,0 ; movaps 0x14cf9(%rip),%xmm10 # 2a810 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
DB 69,15,92,211 ; subps %xmm11,%xmm10
- DB 68,15,40,29,221,234,1,0 ; movaps 0x1eadd(%rip),%xmm11 # 34600 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
+ DB 68,15,40,29,253,76,1,0 ; movaps 0x14cfd(%rip),%xmm11 # 2a820 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
DB 69,15,94,218 ; divps %xmm10,%xmm11
DB 69,15,88,216 ; addps %xmm8,%xmm11
- DB 68,15,89,29,221,234,1,0 ; mulps 0x1eadd(%rip),%xmm11 # 34610 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ DB 68,15,89,29,253,76,1,0 ; mulps 0x14cfd(%rip),%xmm11 # 2a830 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
DB 102,69,15,91,211 ; cvtps2dq %xmm11,%xmm10
DB 243,68,15,16,64,20 ; movss 0x14(%rax),%xmm8
DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
@@ -20209,7 +20209,7 @@ _sk_parametric_r_sse41 LABEL PROC
DB 102,69,15,56,20,193 ; blendvps %xmm0,%xmm9,%xmm8
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 68,15,93,5,116,231,1,0 ; minps 0x1e774(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,93,5,148,73,1,0 ; minps 0x14994(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 65,15,40,192 ; movaps %xmm8,%xmm0
DB 255,224 ; jmpq *%rax
@@ -20237,31 +20237,31 @@ _sk_parametric_g_sse41 LABEL PROC
DB 68,15,88,217 ; addps %xmm1,%xmm11
DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
DB 69,15,91,227 ; cvtdq2ps %xmm11,%xmm12
- DB 68,15,89,37,165,233,1,0 ; mulps 0x1e9a5(%rip),%xmm12 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 68,15,84,29,173,233,1,0 ; andps 0x1e9ad(%rip),%xmm11 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
- DB 68,15,86,29,229,230,1,0 ; orps 0x1e6e5(%rip),%xmm11 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
- DB 68,15,88,37,173,233,1,0 ; addps 0x1e9ad(%rip),%xmm12 # 34590 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
- DB 15,40,13,182,233,1,0 ; movaps 0x1e9b6(%rip),%xmm1 # 345a0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
+ DB 68,15,89,37,197,75,1,0 ; mulps 0x14bc5(%rip),%xmm12 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 68,15,84,29,205,75,1,0 ; andps 0x14bcd(%rip),%xmm11 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 68,15,86,29,5,73,1,0 ; orps 0x14905(%rip),%xmm11 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
+ DB 68,15,88,37,205,75,1,0 ; addps 0x14bcd(%rip),%xmm12 # 2a7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 15,40,13,214,75,1,0 ; movaps 0x14bd6(%rip),%xmm1 # 2a7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
DB 65,15,89,203 ; mulps %xmm11,%xmm1
DB 68,15,92,225 ; subps %xmm1,%xmm12
- DB 68,15,88,29,182,233,1,0 ; addps 0x1e9b6(%rip),%xmm11 # 345b0 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
- DB 15,40,13,191,233,1,0 ; movaps 0x1e9bf(%rip),%xmm1 # 345c0 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
+ DB 68,15,88,29,214,75,1,0 ; addps 0x14bd6(%rip),%xmm11 # 2a7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 15,40,13,223,75,1,0 ; movaps 0x14bdf(%rip),%xmm1 # 2a7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
DB 65,15,94,203 ; divps %xmm11,%xmm1
DB 68,15,92,225 ; subps %xmm1,%xmm12
DB 69,15,89,226 ; mulps %xmm10,%xmm12
DB 102,69,15,58,8,212,1 ; roundps $0x1,%xmm12,%xmm10
DB 69,15,40,220 ; movaps %xmm12,%xmm11
DB 69,15,92,218 ; subps %xmm10,%xmm11
- DB 68,15,88,37,172,233,1,0 ; addps 0x1e9ac(%rip),%xmm12 # 345d0 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
- DB 15,40,13,181,233,1,0 ; movaps 0x1e9b5(%rip),%xmm1 # 345e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
+ DB 68,15,88,37,204,75,1,0 ; addps 0x14bcc(%rip),%xmm12 # 2a7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ DB 15,40,13,213,75,1,0 ; movaps 0x14bd5(%rip),%xmm1 # 2a800 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
DB 65,15,89,203 ; mulps %xmm11,%xmm1
DB 68,15,92,225 ; subps %xmm1,%xmm12
- DB 68,15,40,21,181,233,1,0 ; movaps 0x1e9b5(%rip),%xmm10 # 345f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
+ DB 68,15,40,21,213,75,1,0 ; movaps 0x14bd5(%rip),%xmm10 # 2a810 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
DB 69,15,92,211 ; subps %xmm11,%xmm10
- DB 15,40,13,186,233,1,0 ; movaps 0x1e9ba(%rip),%xmm1 # 34600 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
+ DB 15,40,13,218,75,1,0 ; movaps 0x14bda(%rip),%xmm1 # 2a820 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
DB 65,15,94,202 ; divps %xmm10,%xmm1
DB 65,15,88,204 ; addps %xmm12,%xmm1
- DB 15,89,13,187,233,1,0 ; mulps 0x1e9bb(%rip),%xmm1 # 34610 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ DB 15,89,13,219,75,1,0 ; mulps 0x14bdb(%rip),%xmm1 # 2a830 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
DB 102,68,15,91,209 ; cvtps2dq %xmm1,%xmm10
DB 243,15,16,72,20 ; movss 0x14(%rax),%xmm1
DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
@@ -20269,7 +20269,7 @@ _sk_parametric_g_sse41 LABEL PROC
DB 102,65,15,56,20,201 ; blendvps %xmm0,%xmm9,%xmm1
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,95,200 ; maxps %xmm0,%xmm1
- DB 15,93,13,86,230,1,0 ; minps 0x1e656(%rip),%xmm1 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,93,13,118,72,1,0 ; minps 0x14876(%rip),%xmm1 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 65,15,40,192 ; movaps %xmm8,%xmm0
DB 255,224 ; jmpq *%rax
@@ -20297,31 +20297,31 @@ _sk_parametric_b_sse41 LABEL PROC
DB 68,15,88,218 ; addps %xmm2,%xmm11
DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
DB 69,15,91,227 ; cvtdq2ps %xmm11,%xmm12
- DB 68,15,89,37,135,232,1,0 ; mulps 0x1e887(%rip),%xmm12 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 68,15,84,29,143,232,1,0 ; andps 0x1e88f(%rip),%xmm11 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
- DB 68,15,86,29,199,229,1,0 ; orps 0x1e5c7(%rip),%xmm11 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
- DB 68,15,88,37,143,232,1,0 ; addps 0x1e88f(%rip),%xmm12 # 34590 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
- DB 15,40,21,152,232,1,0 ; movaps 0x1e898(%rip),%xmm2 # 345a0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
+ DB 68,15,89,37,167,74,1,0 ; mulps 0x14aa7(%rip),%xmm12 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 68,15,84,29,175,74,1,0 ; andps 0x14aaf(%rip),%xmm11 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 68,15,86,29,231,71,1,0 ; orps 0x147e7(%rip),%xmm11 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
+ DB 68,15,88,37,175,74,1,0 ; addps 0x14aaf(%rip),%xmm12 # 2a7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 15,40,21,184,74,1,0 ; movaps 0x14ab8(%rip),%xmm2 # 2a7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
DB 65,15,89,211 ; mulps %xmm11,%xmm2
DB 68,15,92,226 ; subps %xmm2,%xmm12
- DB 68,15,88,29,152,232,1,0 ; addps 0x1e898(%rip),%xmm11 # 345b0 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
- DB 15,40,21,161,232,1,0 ; movaps 0x1e8a1(%rip),%xmm2 # 345c0 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
+ DB 68,15,88,29,184,74,1,0 ; addps 0x14ab8(%rip),%xmm11 # 2a7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 15,40,21,193,74,1,0 ; movaps 0x14ac1(%rip),%xmm2 # 2a7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
DB 65,15,94,211 ; divps %xmm11,%xmm2
DB 68,15,92,226 ; subps %xmm2,%xmm12
DB 69,15,89,226 ; mulps %xmm10,%xmm12
DB 102,69,15,58,8,212,1 ; roundps $0x1,%xmm12,%xmm10
DB 69,15,40,220 ; movaps %xmm12,%xmm11
DB 69,15,92,218 ; subps %xmm10,%xmm11
- DB 68,15,88,37,142,232,1,0 ; addps 0x1e88e(%rip),%xmm12 # 345d0 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
- DB 15,40,21,151,232,1,0 ; movaps 0x1e897(%rip),%xmm2 # 345e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
+ DB 68,15,88,37,174,74,1,0 ; addps 0x14aae(%rip),%xmm12 # 2a7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ DB 15,40,21,183,74,1,0 ; movaps 0x14ab7(%rip),%xmm2 # 2a800 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
DB 65,15,89,211 ; mulps %xmm11,%xmm2
DB 68,15,92,226 ; subps %xmm2,%xmm12
- DB 68,15,40,21,151,232,1,0 ; movaps 0x1e897(%rip),%xmm10 # 345f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
+ DB 68,15,40,21,183,74,1,0 ; movaps 0x14ab7(%rip),%xmm10 # 2a810 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
DB 69,15,92,211 ; subps %xmm11,%xmm10
- DB 15,40,21,156,232,1,0 ; movaps 0x1e89c(%rip),%xmm2 # 34600 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
+ DB 15,40,21,188,74,1,0 ; movaps 0x14abc(%rip),%xmm2 # 2a820 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
DB 65,15,94,210 ; divps %xmm10,%xmm2
DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 15,89,21,157,232,1,0 ; mulps 0x1e89d(%rip),%xmm2 # 34610 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ DB 15,89,21,189,74,1,0 ; mulps 0x14abd(%rip),%xmm2 # 2a830 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
DB 102,68,15,91,210 ; cvtps2dq %xmm2,%xmm10
DB 243,15,16,80,20 ; movss 0x14(%rax),%xmm2
DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
@@ -20329,7 +20329,7 @@ _sk_parametric_b_sse41 LABEL PROC
DB 102,65,15,56,20,209 ; blendvps %xmm0,%xmm9,%xmm2
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,95,208 ; maxps %xmm0,%xmm2
- DB 15,93,21,56,229,1,0 ; minps 0x1e538(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,93,21,88,71,1,0 ; minps 0x14758(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 65,15,40,192 ; movaps %xmm8,%xmm0
DB 255,224 ; jmpq *%rax
@@ -20357,31 +20357,31 @@ _sk_parametric_a_sse41 LABEL PROC
DB 68,15,88,219 ; addps %xmm3,%xmm11
DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
DB 69,15,91,227 ; cvtdq2ps %xmm11,%xmm12
- DB 68,15,89,37,105,231,1,0 ; mulps 0x1e769(%rip),%xmm12 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 68,15,84,29,113,231,1,0 ; andps 0x1e771(%rip),%xmm11 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
- DB 68,15,86,29,169,228,1,0 ; orps 0x1e4a9(%rip),%xmm11 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
- DB 68,15,88,37,113,231,1,0 ; addps 0x1e771(%rip),%xmm12 # 34590 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
- DB 15,40,29,122,231,1,0 ; movaps 0x1e77a(%rip),%xmm3 # 345a0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
+ DB 68,15,89,37,137,73,1,0 ; mulps 0x14989(%rip),%xmm12 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 68,15,84,29,145,73,1,0 ; andps 0x14991(%rip),%xmm11 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 68,15,86,29,201,70,1,0 ; orps 0x146c9(%rip),%xmm11 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
+ DB 68,15,88,37,145,73,1,0 ; addps 0x14991(%rip),%xmm12 # 2a7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 15,40,29,154,73,1,0 ; movaps 0x1499a(%rip),%xmm3 # 2a7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
DB 65,15,89,219 ; mulps %xmm11,%xmm3
DB 68,15,92,227 ; subps %xmm3,%xmm12
- DB 68,15,88,29,122,231,1,0 ; addps 0x1e77a(%rip),%xmm11 # 345b0 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
- DB 15,40,29,131,231,1,0 ; movaps 0x1e783(%rip),%xmm3 # 345c0 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
+ DB 68,15,88,29,154,73,1,0 ; addps 0x1499a(%rip),%xmm11 # 2a7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 15,40,29,163,73,1,0 ; movaps 0x149a3(%rip),%xmm3 # 2a7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
DB 65,15,94,219 ; divps %xmm11,%xmm3
DB 68,15,92,227 ; subps %xmm3,%xmm12
DB 69,15,89,226 ; mulps %xmm10,%xmm12
DB 102,69,15,58,8,212,1 ; roundps $0x1,%xmm12,%xmm10
DB 69,15,40,220 ; movaps %xmm12,%xmm11
DB 69,15,92,218 ; subps %xmm10,%xmm11
- DB 68,15,88,37,112,231,1,0 ; addps 0x1e770(%rip),%xmm12 # 345d0 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
- DB 15,40,29,121,231,1,0 ; movaps 0x1e779(%rip),%xmm3 # 345e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
+ DB 68,15,88,37,144,73,1,0 ; addps 0x14990(%rip),%xmm12 # 2a7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ DB 15,40,29,153,73,1,0 ; movaps 0x14999(%rip),%xmm3 # 2a800 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
DB 65,15,89,219 ; mulps %xmm11,%xmm3
DB 68,15,92,227 ; subps %xmm3,%xmm12
- DB 68,15,40,21,121,231,1,0 ; movaps 0x1e779(%rip),%xmm10 # 345f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
+ DB 68,15,40,21,153,73,1,0 ; movaps 0x14999(%rip),%xmm10 # 2a810 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
DB 69,15,92,211 ; subps %xmm11,%xmm10
- DB 15,40,29,126,231,1,0 ; movaps 0x1e77e(%rip),%xmm3 # 34600 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
+ DB 15,40,29,158,73,1,0 ; movaps 0x1499e(%rip),%xmm3 # 2a820 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
DB 65,15,94,218 ; divps %xmm10,%xmm3
DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 15,89,29,127,231,1,0 ; mulps 0x1e77f(%rip),%xmm3 # 34610 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ DB 15,89,29,159,73,1,0 ; mulps 0x1499f(%rip),%xmm3 # 2a830 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
DB 102,68,15,91,211 ; cvtps2dq %xmm3,%xmm10
DB 243,15,16,88,20 ; movss 0x14(%rax),%xmm3
DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
@@ -20389,7 +20389,7 @@ _sk_parametric_a_sse41 LABEL PROC
DB 102,65,15,56,20,217 ; blendvps %xmm0,%xmm9,%xmm3
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,95,216 ; maxps %xmm0,%xmm3
- DB 15,93,29,26,228,1,0 ; minps 0x1e41a(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,93,29,58,70,1,0 ; minps 0x1463a(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 65,15,40,192 ; movaps %xmm8,%xmm0
DB 255,224 ; jmpq *%rax
@@ -20405,20 +20405,20 @@ _sk_gamma_sse41 LABEL PROC
DB 15,40,218 ; movaps %xmm2,%xmm3
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,91,194 ; cvtdq2ps %xmm2,%xmm0
- DB 15,89,5,134,230,1,0 ; mulps 0x1e686(%rip),%xmm0 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 68,15,40,53,142,230,1,0 ; movaps 0x1e68e(%rip),%xmm14 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
+ DB 15,89,5,166,72,1,0 ; mulps 0x148a6(%rip),%xmm0 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 68,15,40,53,174,72,1,0 ; movaps 0x148ae(%rip),%xmm14 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
DB 65,15,84,214 ; andps %xmm14,%xmm2
- DB 68,15,40,37,194,227,1,0 ; movaps 0x1e3c2(%rip),%xmm12 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,37,226,69,1,0 ; movaps 0x145e2(%rip),%xmm12 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 65,15,86,212 ; orps %xmm12,%xmm2
- DB 68,15,40,21,134,230,1,0 ; movaps 0x1e686(%rip),%xmm10 # 34590 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
+ DB 68,15,40,21,166,72,1,0 ; movaps 0x148a6(%rip),%xmm10 # 2a7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 68,15,40,29,138,230,1,0 ; movaps 0x1e68a(%rip),%xmm11 # 345a0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
+ DB 68,15,40,29,170,72,1,0 ; movaps 0x148aa(%rip),%xmm11 # 2a7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
DB 15,40,226 ; movaps %xmm2,%xmm4
DB 65,15,89,227 ; mulps %xmm11,%xmm4
DB 15,92,196 ; subps %xmm4,%xmm0
- DB 68,15,40,13,136,230,1,0 ; movaps 0x1e688(%rip),%xmm9 # 345b0 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
+ DB 68,15,40,13,168,72,1,0 ; movaps 0x148a8(%rip),%xmm9 # 2a7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 68,15,40,45,140,230,1,0 ; movaps 0x1e68c(%rip),%xmm13 # 345c0 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
+ DB 68,15,40,45,172,72,1,0 ; movaps 0x148ac(%rip),%xmm13 # 2a7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
DB 65,15,40,229 ; movaps %xmm13,%xmm4
DB 15,94,226 ; divps %xmm2,%xmm4
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -20429,21 +20429,21 @@ _sk_gamma_sse41 LABEL PROC
DB 102,15,58,8,208,1 ; roundps $0x1,%xmm0,%xmm2
DB 15,40,224 ; movaps %xmm0,%xmm4
DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,40,53,111,230,1,0 ; movaps 0x1e66f(%rip),%xmm6 # 345d0 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
+ DB 15,40,53,143,72,1,0 ; movaps 0x1488f(%rip),%xmm6 # 2a7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,40,61,133,230,1,0 ; movaps 0x1e685(%rip),%xmm7 # 345f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
+ DB 15,40,61,165,72,1,0 ; movaps 0x148a5(%rip),%xmm7 # 2a810 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
DB 15,40,239 ; movaps %xmm7,%xmm5
DB 15,92,236 ; subps %xmm4,%xmm5
DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 15,40,37,101,230,1,0 ; movaps 0x1e665(%rip),%xmm4 # 345e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
+ DB 15,40,37,133,72,1,0 ; movaps 0x14885(%rip),%xmm4 # 2a800 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
DB 15,89,212 ; mulps %xmm4,%xmm2
DB 15,92,194 ; subps %xmm2,%xmm0
- DB 68,15,40,61,119,230,1,0 ; movaps 0x1e677(%rip),%xmm15 # 34600 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
+ DB 68,15,40,61,151,72,1,0 ; movaps 0x14897(%rip),%xmm15 # 2a820 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
DB 65,15,40,215 ; movaps %xmm15,%xmm2
DB 15,94,213 ; divps %xmm5,%xmm2
DB 15,88,208 ; addps %xmm0,%xmm2
DB 15,91,193 ; cvtdq2ps %xmm1,%xmm0
- DB 15,89,5,211,229,1,0 ; mulps 0x1e5d3(%rip),%xmm0 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
+ DB 15,89,5,243,71,1,0 ; mulps 0x147f3(%rip),%xmm0 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
DB 65,15,84,206 ; andps %xmm14,%xmm1
DB 65,15,86,204 ; orps %xmm12,%xmm1
DB 65,15,88,194 ; addps %xmm10,%xmm0
@@ -20469,8 +20469,8 @@ _sk_gamma_sse41 LABEL PROC
DB 15,94,206 ; divps %xmm6,%xmm1
DB 15,88,200 ; addps %xmm0,%xmm1
DB 15,91,195 ; cvtdq2ps %xmm3,%xmm0
- DB 15,89,5,116,229,1,0 ; mulps 0x1e574(%rip),%xmm0 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 15,84,29,125,229,1,0 ; andps 0x1e57d(%rip),%xmm3 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
+ DB 15,89,5,148,71,1,0 ; mulps 0x14794(%rip),%xmm0 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 15,84,29,157,71,1,0 ; andps 0x1479d(%rip),%xmm3 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
DB 65,15,86,220 ; orps %xmm12,%xmm3
DB 65,15,88,194 ; addps %xmm10,%xmm0
DB 68,15,89,219 ; mulps %xmm3,%xmm11
@@ -20488,7 +20488,7 @@ _sk_gamma_sse41 LABEL PROC
DB 15,92,253 ; subps %xmm5,%xmm7
DB 68,15,94,255 ; divps %xmm7,%xmm15
DB 68,15,88,248 ; addps %xmm0,%xmm15
- DB 15,40,5,197,229,1,0 ; movaps 0x1e5c5(%rip),%xmm0 # 34610 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ DB 15,40,5,229,71,1,0 ; movaps 0x147e5(%rip),%xmm0 # 2a830 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
DB 15,89,208 ; mulps %xmm0,%xmm2
DB 15,89,200 ; mulps %xmm0,%xmm1
DB 68,15,89,248 ; mulps %xmm0,%xmm15
@@ -20507,29 +20507,29 @@ _sk_gamma_sse41 LABEL PROC
PUBLIC _sk_lab_to_xyz_sse41
_sk_lab_to_xyz_sse41 LABEL PROC
DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 68,15,89,5,146,229,1,0 ; mulps 0x1e592(%rip),%xmm8 # 34620 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
- DB 68,15,40,13,26,227,1,0 ; movaps 0x1e31a(%rip),%xmm9 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,89,5,178,71,1,0 ; mulps 0x147b2(%rip),%xmm8 # 2a840 <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ DB 68,15,40,13,58,69,1,0 ; movaps 0x1453a(%rip),%xmm9 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 15,40,5,143,229,1,0 ; movaps 0x1e58f(%rip),%xmm0 # 34630 <_sk_srcover_rgba_8888_sse2_lowp+0x11fc>
+ DB 15,40,5,175,71,1,0 ; movaps 0x147af(%rip),%xmm0 # 2a850 <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
DB 15,88,200 ; addps %xmm0,%xmm1
DB 65,15,89,209 ; mulps %xmm9,%xmm2
DB 15,88,208 ; addps %xmm0,%xmm2
- DB 68,15,88,5,141,229,1,0 ; addps 0x1e58d(%rip),%xmm8 # 34640 <_sk_srcover_rgba_8888_sse2_lowp+0x120c>
- DB 68,15,89,5,149,229,1,0 ; mulps 0x1e595(%rip),%xmm8 # 34650 <_sk_srcover_rgba_8888_sse2_lowp+0x121c>
- DB 15,89,13,158,229,1,0 ; mulps 0x1e59e(%rip),%xmm1 # 34660 <_sk_srcover_rgba_8888_sse2_lowp+0x122c>
+ DB 68,15,88,5,173,71,1,0 ; addps 0x147ad(%rip),%xmm8 # 2a860 <_sk_srcover_rgba_8888_sse2_lowp+0xda8>
+ DB 68,15,89,5,181,71,1,0 ; mulps 0x147b5(%rip),%xmm8 # 2a870 <_sk_srcover_rgba_8888_sse2_lowp+0xdb8>
+ DB 15,89,13,190,71,1,0 ; mulps 0x147be(%rip),%xmm1 # 2a880 <_sk_srcover_rgba_8888_sse2_lowp+0xdc8>
DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 15,89,21,163,229,1,0 ; mulps 0x1e5a3(%rip),%xmm2 # 34670 <_sk_srcover_rgba_8888_sse2_lowp+0x123c>
+ DB 15,89,21,195,71,1,0 ; mulps 0x147c3(%rip),%xmm2 # 2a890 <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
DB 69,15,40,208 ; movaps %xmm8,%xmm10
DB 68,15,92,210 ; subps %xmm2,%xmm10
DB 68,15,40,217 ; movaps %xmm1,%xmm11
DB 69,15,89,219 ; mulps %xmm11,%xmm11
DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 68,15,40,13,151,229,1,0 ; movaps 0x1e597(%rip),%xmm9 # 34680 <_sk_srcover_rgba_8888_sse2_lowp+0x124c>
+ DB 68,15,40,13,183,71,1,0 ; movaps 0x147b7(%rip),%xmm9 # 2a8a0 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 65,15,194,195,1 ; cmpltps %xmm11,%xmm0
- DB 15,40,21,151,229,1,0 ; movaps 0x1e597(%rip),%xmm2 # 34690 <_sk_srcover_rgba_8888_sse2_lowp+0x125c>
+ DB 15,40,21,183,71,1,0 ; movaps 0x147b7(%rip),%xmm2 # 2a8b0 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
DB 15,88,202 ; addps %xmm2,%xmm1
- DB 68,15,40,37,156,229,1,0 ; movaps 0x1e59c(%rip),%xmm12 # 346a0 <_sk_srcover_rgba_8888_sse2_lowp+0x126c>
+ DB 68,15,40,37,188,71,1,0 ; movaps 0x147bc(%rip),%xmm12 # 2a8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe08>
DB 65,15,89,204 ; mulps %xmm12,%xmm1
DB 102,65,15,56,20,203 ; blendvps %xmm0,%xmm11,%xmm1
DB 69,15,40,216 ; movaps %xmm8,%xmm11
@@ -20548,8 +20548,8 @@ _sk_lab_to_xyz_sse41 LABEL PROC
DB 65,15,89,212 ; mulps %xmm12,%xmm2
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 102,65,15,56,20,211 ; blendvps %xmm0,%xmm11,%xmm2
- DB 15,89,13,85,229,1,0 ; mulps 0x1e555(%rip),%xmm1 # 346b0 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
- DB 15,89,21,94,229,1,0 ; mulps 0x1e55e(%rip),%xmm2 # 346c0 <_sk_srcover_rgba_8888_sse2_lowp+0x128c>
+ DB 15,89,13,117,71,1,0 ; mulps 0x14775(%rip),%xmm1 # 2a8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe18>
+ DB 15,89,21,126,71,1,0 ; mulps 0x1477e(%rip),%xmm2 # 2a8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe28>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,40,193 ; movaps %xmm1,%xmm0
DB 65,15,40,200 ; movaps %xmm8,%xmm1
@@ -20566,9 +20566,9 @@ _sk_load_a8_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,39 ; jne 161ac <_sk_load_a8_sse41+0x3f>
DB 102,67,15,56,49,4,16 ; pmovzxbd (%r8,%r10,1),%xmm0
- DB 102,15,219,5,236,225,1,0 ; pand 0x1e1ec(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,219,5,12,68,1,0 ; pand 0x1440c(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,29,50,227,1,0 ; mulps 0x1e332(%rip),%xmm3 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,29,82,69,1,0 ; mulps 0x14552(%rip),%xmm3 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 102,15,239,201 ; pxor %xmm1,%xmm1
@@ -20606,9 +20606,9 @@ _sk_load_a8_dst_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,39 ; jne 16238 <_sk_load_a8_dst_sse41+0x3f>
DB 102,67,15,56,49,36,16 ; pmovzxbd (%r8,%r10,1),%xmm4
- DB 102,15,219,37,96,225,1,0 ; pand 0x1e160(%rip),%xmm4 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,219,37,128,67,1,0 ; pand 0x14380(%rip),%xmm4 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 15,91,252 ; cvtdq2ps %xmm4,%xmm7
- DB 15,89,61,166,226,1,0 ; mulps 0x1e2a6(%rip),%xmm7 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,61,198,68,1,0 ; mulps 0x144c6(%rip),%xmm7 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,87,228 ; xorps %xmm4,%xmm4
DB 102,15,239,237 ; pxor %xmm5,%xmm5
@@ -20661,7 +20661,7 @@ _sk_gather_a8_sse41 LABEL PROC
DB 102,15,58,32,192,3 ; pinsrb $0x3,%eax,%xmm0
DB 102,15,56,49,192 ; pmovzxbd %xmm0,%xmm0
DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,29,213,225,1,0 ; mulps 0x1e1d5(%rip),%xmm3 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,29,245,67,1,0 ; mulps 0x143f5(%rip),%xmm3 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 102,15,239,201 ; pxor %xmm1,%xmm1
@@ -20677,7 +20677,7 @@ _sk_store_a8_sse41 LABEL PROC
DB 77,15,175,193 ; imul %r9,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,210 ; movslq %edx,%r10
- DB 68,15,40,5,135,224,1,0 ; movaps 0x1e087(%rip),%xmm8 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,40,5,167,66,1,0 ; movaps 0x142a7(%rip),%xmm8 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 68,15,89,195 ; mulps %xmm3,%xmm8
DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
DB 102,68,15,56,43,192 ; packusdw %xmm0,%xmm8
@@ -20699,7 +20699,7 @@ _sk_store_a8_sse41 LABEL PROC
DB 65,128,249,3 ; cmp $0x3,%r9b
DB 117,217 ; jne 1634b <_sk_store_a8_sse41+0x41>
DB 102,71,15,58,20,68,16,2,8 ; pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- DB 102,68,15,56,0,5,75,227,1,0 ; pshufb 0x1e34b(%rip),%xmm8 # 346d0 <_sk_srcover_rgba_8888_sse2_lowp+0x129c>
+ DB 102,68,15,56,0,5,107,69,1,0 ; pshufb 0x1456b(%rip),%xmm8 # 2a8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xe38>
DB 102,71,15,58,21,4,16,0 ; pextrw $0x0,%xmm8,(%r8,%r10,1)
DB 235,188 ; jmp 1634b <_sk_store_a8_sse41+0x41>
DB 102,71,15,58,20,4,16,0 ; pextrb $0x0,%xmm8,(%r8,%r10,1)
@@ -20716,11 +20716,11 @@ _sk_load_g8_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,42 ; jne 163db <_sk_load_g8_sse41+0x42>
DB 102,67,15,56,49,4,16 ; pmovzxbd (%r8,%r10,1),%xmm0
- DB 102,15,219,5,192,223,1,0 ; pand 0x1dfc0(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,219,5,224,65,1,0 ; pand 0x141e0(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,6,225,1,0 ; mulps 0x1e106(%rip),%xmm0 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,5,38,67,1,0 ; mulps 0x14326(%rip),%xmm0 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,253,222,1,0 ; movaps 0x1defd(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,29,65,1,0 ; movaps 0x1411d(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 255,224 ; jmpq *%rax
@@ -20756,11 +20756,11 @@ _sk_load_g8_dst_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,42 ; jne 1646a <_sk_load_g8_dst_sse41+0x42>
DB 102,67,15,56,49,36,16 ; pmovzxbd (%r8,%r10,1),%xmm4
- DB 102,15,219,37,49,223,1,0 ; pand 0x1df31(%rip),%xmm4 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,219,37,81,65,1,0 ; pand 0x14151(%rip),%xmm4 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,119,224,1,0 ; mulps 0x1e077(%rip),%xmm4 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,37,151,66,1,0 ; mulps 0x14297(%rip),%xmm4 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,110,222,1,0 ; movaps 0x1de6e(%rip),%xmm7 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,61,142,64,1,0 ; movaps 0x1408e(%rip),%xmm7 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,40,236 ; movaps %xmm4,%xmm5
DB 15,40,244 ; movaps %xmm4,%xmm6
DB 255,224 ; jmpq *%rax
@@ -20811,9 +20811,9 @@ _sk_gather_g8_sse41 LABEL PROC
DB 102,15,58,32,192,3 ; pinsrb $0x3,%eax,%xmm0
DB 102,15,56,49,192 ; pmovzxbd %xmm0,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,163,223,1,0 ; mulps 0x1dfa3(%rip),%xmm0 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,5,195,65,1,0 ; mulps 0x141c3(%rip),%xmm0 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,154,221,1,0 ; movaps 0x1dd9a(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,186,63,1,0 ; movaps 0x13fba(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 255,224 ; jmpq *%rax
@@ -20830,19 +20830,19 @@ _sk_load_565_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,80 ; jne 165a9 <_sk_load_565_sse41+0x6b>
DB 102,67,15,56,51,20,80 ; pmovzxwd (%r8,%r10,2),%xmm2
- DB 102,15,111,5,120,223,1,0 ; movdqa 0x1df78(%rip),%xmm0 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
+ DB 102,15,111,5,152,65,1,0 ; movdqa 0x14198(%rip),%xmm0 # 2a700 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,122,223,1,0 ; mulps 0x1df7a(%rip),%xmm0 # 344f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
- DB 102,15,111,13,130,223,1,0 ; movdqa 0x1df82(%rip),%xmm1 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
+ DB 15,89,5,154,65,1,0 ; mulps 0x1419a(%rip),%xmm0 # 2a710 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ DB 102,15,111,13,162,65,1,0 ; movdqa 0x141a2(%rip),%xmm1 # 2a720 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
DB 102,15,219,202 ; pand %xmm2,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,132,223,1,0 ; mulps 0x1df84(%rip),%xmm1 # 34510 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
- DB 102,15,219,21,140,223,1,0 ; pand 0x1df8c(%rip),%xmm2 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
+ DB 15,89,13,164,65,1,0 ; mulps 0x141a4(%rip),%xmm1 # 2a730 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 102,15,219,21,172,65,1,0 ; pand 0x141ac(%rip),%xmm2 # 2a740 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,146,223,1,0 ; mulps 0x1df92(%rip),%xmm2 # 34530 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
+ DB 15,89,21,178,65,1,0 ; mulps 0x141b2(%rip),%xmm2 # 2a750 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,41,221,1,0 ; movaps 0x1dd29(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,73,63,1,0 ; movaps 0x13f49(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
DB 65,128,225,3 ; and $0x3,%r9b
@@ -20876,19 +20876,19 @@ _sk_load_565_dst_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,80 ; jne 16664 <_sk_load_565_dst_sse41+0x6b>
DB 102,67,15,56,51,52,80 ; pmovzxwd (%r8,%r10,2),%xmm6
- DB 102,15,111,37,189,222,1,0 ; movdqa 0x1debd(%rip),%xmm4 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
+ DB 102,15,111,37,221,64,1,0 ; movdqa 0x140dd(%rip),%xmm4 # 2a700 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
DB 102,15,219,230 ; pand %xmm6,%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,191,222,1,0 ; mulps 0x1debf(%rip),%xmm4 # 344f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
- DB 102,15,111,45,199,222,1,0 ; movdqa 0x1dec7(%rip),%xmm5 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
+ DB 15,89,37,223,64,1,0 ; mulps 0x140df(%rip),%xmm4 # 2a710 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ DB 102,15,111,45,231,64,1,0 ; movdqa 0x140e7(%rip),%xmm5 # 2a720 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
DB 102,15,219,238 ; pand %xmm6,%xmm5
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,45,201,222,1,0 ; mulps 0x1dec9(%rip),%xmm5 # 34510 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
- DB 102,15,219,53,209,222,1,0 ; pand 0x1ded1(%rip),%xmm6 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
+ DB 15,89,45,233,64,1,0 ; mulps 0x140e9(%rip),%xmm5 # 2a730 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 102,15,219,53,241,64,1,0 ; pand 0x140f1(%rip),%xmm6 # 2a740 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,53,215,222,1,0 ; mulps 0x1ded7(%rip),%xmm6 # 34530 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
+ DB 15,89,53,247,64,1,0 ; mulps 0x140f7(%rip),%xmm6 # 2a750 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,110,220,1,0 ; movaps 0x1dc6e(%rip),%xmm7 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,61,142,62,1,0 ; movaps 0x13e8e(%rip),%xmm7 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
DB 65,128,225,3 ; and $0x3,%r9b
@@ -20935,19 +20935,19 @@ _sk_gather_565_sse41 LABEL PROC
DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
DB 102,15,196,192,3 ; pinsrw $0x3,%eax,%xmm0
DB 102,15,56,51,208 ; pmovzxwd %xmm0,%xmm2
- DB 102,15,111,5,187,221,1,0 ; movdqa 0x1ddbb(%rip),%xmm0 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
+ DB 102,15,111,5,219,63,1,0 ; movdqa 0x13fdb(%rip),%xmm0 # 2a700 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,189,221,1,0 ; mulps 0x1ddbd(%rip),%xmm0 # 344f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
- DB 102,15,111,13,197,221,1,0 ; movdqa 0x1ddc5(%rip),%xmm1 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
+ DB 15,89,5,221,63,1,0 ; mulps 0x13fdd(%rip),%xmm0 # 2a710 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ DB 102,15,111,13,229,63,1,0 ; movdqa 0x13fe5(%rip),%xmm1 # 2a720 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
DB 102,15,219,202 ; pand %xmm2,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,199,221,1,0 ; mulps 0x1ddc7(%rip),%xmm1 # 34510 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
- DB 102,15,219,21,207,221,1,0 ; pand 0x1ddcf(%rip),%xmm2 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
+ DB 15,89,13,231,63,1,0 ; mulps 0x13fe7(%rip),%xmm1 # 2a730 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 102,15,219,21,239,63,1,0 ; pand 0x13fef(%rip),%xmm2 # 2a740 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,213,221,1,0 ; mulps 0x1ddd5(%rip),%xmm2 # 34530 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
+ DB 15,89,21,245,63,1,0 ; mulps 0x13ff5(%rip),%xmm2 # 2a750 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,108,219,1,0 ; movaps 0x1db6c(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,140,61,1,0 ; movaps 0x13d8c(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 255,224 ; jmpq *%rax
PUBLIC _sk_store_565_sse41
@@ -20959,12 +20959,12 @@ _sk_store_565_sse41 LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 72,99,194 ; movslq %edx,%rax
- DB 68,15,40,5,92,223,1,0 ; movaps 0x1df5c(%rip),%xmm8 # 346e0 <_sk_srcover_rgba_8888_sse2_lowp+0x12ac>
+ DB 68,15,40,5,124,65,1,0 ; movaps 0x1417c(%rip),%xmm8 # 2a900 <_sk_srcover_rgba_8888_sse2_lowp+0xe48>
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
DB 102,65,15,114,241,11 ; pslld $0xb,%xmm9
- DB 68,15,40,21,81,223,1,0 ; movaps 0x1df51(%rip),%xmm10 # 346f0 <_sk_srcover_rgba_8888_sse2_lowp+0x12bc>
+ DB 68,15,40,21,113,65,1,0 ; movaps 0x14171(%rip),%xmm10 # 2a910 <_sk_srcover_rgba_8888_sse2_lowp+0xe58>
DB 68,15,89,209 ; mulps %xmm1,%xmm10
DB 102,69,15,91,210 ; cvtps2dq %xmm10,%xmm10
DB 102,65,15,114,242,5 ; pslld $0x5,%xmm10
@@ -21006,21 +21006,21 @@ _sk_load_4444_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,95 ; jne 16890 <_sk_load_4444_sse41+0x7a>
DB 102,67,15,56,51,28,80 ; pmovzxwd (%r8,%r10,2),%xmm3
- DB 102,15,111,5,192,222,1,0 ; movdqa 0x1dec0(%rip),%xmm0 # 34700 <_sk_srcover_rgba_8888_sse2_lowp+0x12cc>
+ DB 102,15,111,5,224,64,1,0 ; movdqa 0x140e0(%rip),%xmm0 # 2a920 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,194,222,1,0 ; mulps 0x1dec2(%rip),%xmm0 # 34710 <_sk_srcover_rgba_8888_sse2_lowp+0x12dc>
- DB 102,15,111,13,202,222,1,0 ; movdqa 0x1deca(%rip),%xmm1 # 34720 <_sk_srcover_rgba_8888_sse2_lowp+0x12ec>
+ DB 15,89,5,226,64,1,0 ; mulps 0x140e2(%rip),%xmm0 # 2a930 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ DB 102,15,111,13,234,64,1,0 ; movdqa 0x140ea(%rip),%xmm1 # 2a940 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
DB 102,15,219,203 ; pand %xmm3,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,204,222,1,0 ; mulps 0x1decc(%rip),%xmm1 # 34730 <_sk_srcover_rgba_8888_sse2_lowp+0x12fc>
- DB 102,15,111,21,212,222,1,0 ; movdqa 0x1ded4(%rip),%xmm2 # 34740 <_sk_srcover_rgba_8888_sse2_lowp+0x130c>
+ DB 15,89,13,236,64,1,0 ; mulps 0x140ec(%rip),%xmm1 # 2a950 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ DB 102,15,111,21,244,64,1,0 ; movdqa 0x140f4(%rip),%xmm2 # 2a960 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
DB 102,15,219,211 ; pand %xmm3,%xmm2
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,214,222,1,0 ; mulps 0x1ded6(%rip),%xmm2 # 34750 <_sk_srcover_rgba_8888_sse2_lowp+0x131c>
- DB 102,15,219,29,222,222,1,0 ; pand 0x1dede(%rip),%xmm3 # 34760 <_sk_srcover_rgba_8888_sse2_lowp+0x132c>
+ DB 15,89,21,246,64,1,0 ; mulps 0x140f6(%rip),%xmm2 # 2a970 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ DB 102,15,219,29,254,64,1,0 ; pand 0x140fe(%rip),%xmm3 # 2a980 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,228,222,1,0 ; mulps 0x1dee4(%rip),%xmm3 # 34770 <_sk_srcover_rgba_8888_sse2_lowp+0x133c>
+ DB 15,89,29,4,65,1,0 ; mulps 0x14104(%rip),%xmm3 # 2a990 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
@@ -21055,21 +21055,21 @@ _sk_load_4444_dst_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,95 ; jne 1695a <_sk_load_4444_dst_sse41+0x7a>
DB 102,67,15,56,51,60,80 ; pmovzxwd (%r8,%r10,2),%xmm7
- DB 102,15,111,37,246,221,1,0 ; movdqa 0x1ddf6(%rip),%xmm4 # 34700 <_sk_srcover_rgba_8888_sse2_lowp+0x12cc>
+ DB 102,15,111,37,22,64,1,0 ; movdqa 0x14016(%rip),%xmm4 # 2a920 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
DB 102,15,219,231 ; pand %xmm7,%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,248,221,1,0 ; mulps 0x1ddf8(%rip),%xmm4 # 34710 <_sk_srcover_rgba_8888_sse2_lowp+0x12dc>
- DB 102,15,111,45,0,222,1,0 ; movdqa 0x1de00(%rip),%xmm5 # 34720 <_sk_srcover_rgba_8888_sse2_lowp+0x12ec>
+ DB 15,89,37,24,64,1,0 ; mulps 0x14018(%rip),%xmm4 # 2a930 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ DB 102,15,111,45,32,64,1,0 ; movdqa 0x14020(%rip),%xmm5 # 2a940 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
DB 102,15,219,239 ; pand %xmm7,%xmm5
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,45,2,222,1,0 ; mulps 0x1de02(%rip),%xmm5 # 34730 <_sk_srcover_rgba_8888_sse2_lowp+0x12fc>
- DB 102,15,111,53,10,222,1,0 ; movdqa 0x1de0a(%rip),%xmm6 # 34740 <_sk_srcover_rgba_8888_sse2_lowp+0x130c>
+ DB 15,89,45,34,64,1,0 ; mulps 0x14022(%rip),%xmm5 # 2a950 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ DB 102,15,111,53,42,64,1,0 ; movdqa 0x1402a(%rip),%xmm6 # 2a960 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
DB 102,15,219,247 ; pand %xmm7,%xmm6
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,53,12,222,1,0 ; mulps 0x1de0c(%rip),%xmm6 # 34750 <_sk_srcover_rgba_8888_sse2_lowp+0x131c>
- DB 102,15,219,61,20,222,1,0 ; pand 0x1de14(%rip),%xmm7 # 34760 <_sk_srcover_rgba_8888_sse2_lowp+0x132c>
+ DB 15,89,53,44,64,1,0 ; mulps 0x1402c(%rip),%xmm6 # 2a970 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ DB 102,15,219,61,52,64,1,0 ; pand 0x14034(%rip),%xmm7 # 2a980 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
- DB 15,89,61,26,222,1,0 ; mulps 0x1de1a(%rip),%xmm7 # 34770 <_sk_srcover_rgba_8888_sse2_lowp+0x133c>
+ DB 15,89,61,58,64,1,0 ; mulps 0x1403a(%rip),%xmm7 # 2a990 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
@@ -21117,21 +21117,21 @@ _sk_gather_4444_sse41 LABEL PROC
DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
DB 102,15,196,192,3 ; pinsrw $0x3,%eax,%xmm0
DB 102,15,56,51,216 ; pmovzxwd %xmm0,%xmm3
- DB 102,15,111,5,229,220,1,0 ; movdqa 0x1dce5(%rip),%xmm0 # 34700 <_sk_srcover_rgba_8888_sse2_lowp+0x12cc>
+ DB 102,15,111,5,5,63,1,0 ; movdqa 0x13f05(%rip),%xmm0 # 2a920 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,231,220,1,0 ; mulps 0x1dce7(%rip),%xmm0 # 34710 <_sk_srcover_rgba_8888_sse2_lowp+0x12dc>
- DB 102,15,111,13,239,220,1,0 ; movdqa 0x1dcef(%rip),%xmm1 # 34720 <_sk_srcover_rgba_8888_sse2_lowp+0x12ec>
+ DB 15,89,5,7,63,1,0 ; mulps 0x13f07(%rip),%xmm0 # 2a930 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ DB 102,15,111,13,15,63,1,0 ; movdqa 0x13f0f(%rip),%xmm1 # 2a940 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
DB 102,15,219,203 ; pand %xmm3,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,241,220,1,0 ; mulps 0x1dcf1(%rip),%xmm1 # 34730 <_sk_srcover_rgba_8888_sse2_lowp+0x12fc>
- DB 102,15,111,21,249,220,1,0 ; movdqa 0x1dcf9(%rip),%xmm2 # 34740 <_sk_srcover_rgba_8888_sse2_lowp+0x130c>
+ DB 15,89,13,17,63,1,0 ; mulps 0x13f11(%rip),%xmm1 # 2a950 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ DB 102,15,111,21,25,63,1,0 ; movdqa 0x13f19(%rip),%xmm2 # 2a960 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
DB 102,15,219,211 ; pand %xmm3,%xmm2
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,251,220,1,0 ; mulps 0x1dcfb(%rip),%xmm2 # 34750 <_sk_srcover_rgba_8888_sse2_lowp+0x131c>
- DB 102,15,219,29,3,221,1,0 ; pand 0x1dd03(%rip),%xmm3 # 34760 <_sk_srcover_rgba_8888_sse2_lowp+0x132c>
+ DB 15,89,21,27,63,1,0 ; mulps 0x13f1b(%rip),%xmm2 # 2a970 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ DB 102,15,219,29,35,63,1,0 ; pand 0x13f23(%rip),%xmm3 # 2a980 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,9,221,1,0 ; mulps 0x1dd09(%rip),%xmm3 # 34770 <_sk_srcover_rgba_8888_sse2_lowp+0x133c>
+ DB 15,89,29,41,63,1,0 ; mulps 0x13f29(%rip),%xmm3 # 2a990 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -21144,7 +21144,7 @@ _sk_store_4444_sse41 LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 72,99,194 ; movslq %edx,%rax
- DB 68,15,40,5,247,220,1,0 ; movaps 0x1dcf7(%rip),%xmm8 # 34780 <_sk_srcover_rgba_8888_sse2_lowp+0x134c>
+ DB 68,15,40,5,23,63,1,0 ; movaps 0x13f17(%rip),%xmm8 # 2a9a0 <_sk_srcover_rgba_8888_sse2_lowp+0xee8>
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
@@ -21196,17 +21196,17 @@ _sk_load_8888_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,89 ; jne 16ba4 <_sk_load_8888_sse41+0x75>
DB 243,65,15,111,28,128 ; movdqu (%r8,%rax,4),%xmm3
- DB 102,15,111,5,39,216,1,0 ; movdqa 0x1d827(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,5,71,58,1,0 ; movdqa 0x13a47(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,104,217,1,0 ; movaps 0x1d968(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,136,59,1,0 ; movaps 0x13b88(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,56,0,13,23,216,1,0 ; pshufb 0x1d817(%rip),%xmm1 # 34390 <_sk_srcover_rgba_8888_sse2_lowp+0xf5c>
+ DB 102,15,56,0,13,55,58,1,0 ; pshufb 0x13a37(%rip),%xmm1 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
DB 65,15,89,200 ; mulps %xmm8,%xmm1
DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,56,0,21,19,216,1,0 ; pshufb 0x1d813(%rip),%xmm2 # 343a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf6c>
+ DB 102,15,56,0,21,51,58,1,0 ; pshufb 0x13a33(%rip),%xmm2 # 2a5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
DB 65,15,89,208 ; mulps %xmm8,%xmm2
DB 102,15,114,211,24 ; psrld $0x18,%xmm3
@@ -21243,17 +21243,17 @@ _sk_load_8888_dst_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,89 ; jne 16c5e <_sk_load_8888_dst_sse41+0x75>
DB 243,65,15,111,60,128 ; movdqu (%r8,%rax,4),%xmm7
- DB 102,15,111,37,109,215,1,0 ; movdqa 0x1d76d(%rip),%xmm4 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,37,141,57,1,0 ; movdqa 0x1398d(%rip),%xmm4 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,15,219,231 ; pand %xmm7,%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 68,15,40,5,174,216,1,0 ; movaps 0x1d8ae(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,206,58,1,0 ; movaps 0x13ace(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,224 ; mulps %xmm8,%xmm4
DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,15,56,0,45,93,215,1,0 ; pshufb 0x1d75d(%rip),%xmm5 # 34390 <_sk_srcover_rgba_8888_sse2_lowp+0xf5c>
+ DB 102,15,56,0,45,125,57,1,0 ; pshufb 0x1397d(%rip),%xmm5 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
DB 65,15,89,232 ; mulps %xmm8,%xmm5
DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,56,0,53,89,215,1,0 ; pshufb 0x1d759(%rip),%xmm6 # 343a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf6c>
+ DB 102,15,56,0,53,121,57,1,0 ; pshufb 0x13979(%rip),%xmm6 # 2a5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
DB 65,15,89,240 ; mulps %xmm8,%xmm6
DB 102,15,114,215,24 ; psrld $0x18,%xmm7
@@ -21298,17 +21298,17 @@ _sk_gather_8888_sse41 LABEL PROC
DB 102,65,15,58,34,28,128,1 ; pinsrd $0x1,(%r8,%rax,4),%xmm3
DB 102,67,15,58,34,28,152,2 ; pinsrd $0x2,(%r8,%r11,4),%xmm3
DB 102,67,15,58,34,28,144,3 ; pinsrd $0x3,(%r8,%r10,4),%xmm3
- DB 102,15,111,5,125,214,1,0 ; movdqa 0x1d67d(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,5,157,56,1,0 ; movdqa 0x1389d(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,190,215,1,0 ; movaps 0x1d7be(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,222,57,1,0 ; movaps 0x139de(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,56,0,13,109,214,1,0 ; pshufb 0x1d66d(%rip),%xmm1 # 34390 <_sk_srcover_rgba_8888_sse2_lowp+0xf5c>
+ DB 102,15,56,0,13,141,56,1,0 ; pshufb 0x1388d(%rip),%xmm1 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
DB 65,15,89,200 ; mulps %xmm8,%xmm1
DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,56,0,21,105,214,1,0 ; pshufb 0x1d669(%rip),%xmm2 # 343a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf6c>
+ DB 102,15,56,0,21,137,56,1,0 ; pshufb 0x13889(%rip),%xmm2 # 2a5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
DB 65,15,89,208 ; mulps %xmm8,%xmm2
DB 102,15,114,211,24 ; psrld $0x18,%xmm3
@@ -21326,7 +21326,7 @@ _sk_store_8888_sse41 LABEL PROC
DB 73,193,224,2 ; shl $0x2,%r8
DB 76,3,0 ; add (%rax),%r8
DB 72,99,194 ; movslq %edx,%rax
- DB 68,15,40,5,67,214,1,0 ; movaps 0x1d643(%rip),%xmm8 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,40,5,99,56,1,0 ; movaps 0x13863(%rip),%xmm8 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
@@ -21375,17 +21375,17 @@ _sk_load_bgra_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,89 ; jne 16e74 <_sk_load_bgra_sse41+0x75>
DB 243,65,15,111,28,128 ; movdqu (%r8,%rax,4),%xmm3
- DB 102,15,111,5,87,213,1,0 ; movdqa 0x1d557(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,5,119,55,1,0 ; movdqa 0x13777(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 15,91,208 ; cvtdq2ps %xmm0,%xmm2
- DB 68,15,40,5,152,214,1,0 ; movaps 0x1d698(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,184,56,1,0 ; movaps 0x138b8(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,208 ; mulps %xmm8,%xmm2
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,56,0,5,71,213,1,0 ; pshufb 0x1d547(%rip),%xmm0 # 34390 <_sk_srcover_rgba_8888_sse2_lowp+0xf5c>
+ DB 102,15,56,0,5,103,55,1,0 ; pshufb 0x13767(%rip),%xmm0 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
DB 15,91,200 ; cvtdq2ps %xmm0,%xmm1
DB 65,15,89,200 ; mulps %xmm8,%xmm1
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,56,0,5,67,213,1,0 ; pshufb 0x1d543(%rip),%xmm0 # 343a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf6c>
+ DB 102,15,56,0,5,99,55,1,0 ; pshufb 0x13763(%rip),%xmm0 # 2a5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,15,114,211,24 ; psrld $0x18,%xmm3
@@ -21422,17 +21422,17 @@ _sk_load_bgra_dst_sse41 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,89 ; jne 16f2e <_sk_load_bgra_dst_sse41+0x75>
DB 243,65,15,111,60,128 ; movdqu (%r8,%rax,4),%xmm7
- DB 102,15,111,37,157,212,1,0 ; movdqa 0x1d49d(%rip),%xmm4 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,37,189,54,1,0 ; movdqa 0x136bd(%rip),%xmm4 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,15,219,231 ; pand %xmm7,%xmm4
DB 15,91,244 ; cvtdq2ps %xmm4,%xmm6
- DB 68,15,40,5,222,213,1,0 ; movaps 0x1d5de(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,254,55,1,0 ; movaps 0x137fe(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,240 ; mulps %xmm8,%xmm6
DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,56,0,37,141,212,1,0 ; pshufb 0x1d48d(%rip),%xmm4 # 34390 <_sk_srcover_rgba_8888_sse2_lowp+0xf5c>
+ DB 102,15,56,0,37,173,54,1,0 ; pshufb 0x136ad(%rip),%xmm4 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
DB 15,91,236 ; cvtdq2ps %xmm4,%xmm5
DB 65,15,89,232 ; mulps %xmm8,%xmm5
DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,56,0,37,137,212,1,0 ; pshufb 0x1d489(%rip),%xmm4 # 343a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf6c>
+ DB 102,15,56,0,37,169,54,1,0 ; pshufb 0x136a9(%rip),%xmm4 # 2a5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
DB 65,15,89,224 ; mulps %xmm8,%xmm4
DB 102,15,114,215,24 ; psrld $0x18,%xmm7
@@ -21477,17 +21477,17 @@ _sk_gather_bgra_sse41 LABEL PROC
DB 102,65,15,58,34,28,128,1 ; pinsrd $0x1,(%r8,%rax,4),%xmm3
DB 102,67,15,58,34,28,152,2 ; pinsrd $0x2,(%r8,%r11,4),%xmm3
DB 102,67,15,58,34,28,144,3 ; pinsrd $0x3,(%r8,%r10,4),%xmm3
- DB 102,15,111,5,173,211,1,0 ; movdqa 0x1d3ad(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,5,205,53,1,0 ; movdqa 0x135cd(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 15,91,208 ; cvtdq2ps %xmm0,%xmm2
- DB 68,15,40,5,238,212,1,0 ; movaps 0x1d4ee(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,14,55,1,0 ; movaps 0x1370e(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,208 ; mulps %xmm8,%xmm2
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,56,0,5,157,211,1,0 ; pshufb 0x1d39d(%rip),%xmm0 # 34390 <_sk_srcover_rgba_8888_sse2_lowp+0xf5c>
+ DB 102,15,56,0,5,189,53,1,0 ; pshufb 0x135bd(%rip),%xmm0 # 2a5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
DB 15,91,200 ; cvtdq2ps %xmm0,%xmm1
DB 65,15,89,200 ; mulps %xmm8,%xmm1
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,56,0,5,153,211,1,0 ; pshufb 0x1d399(%rip),%xmm0 # 343a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf6c>
+ DB 102,15,56,0,5,185,53,1,0 ; pshufb 0x135b9(%rip),%xmm0 # 2a5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,15,114,211,24 ; psrld $0x18,%xmm3
@@ -21505,7 +21505,7 @@ _sk_store_bgra_sse41 LABEL PROC
DB 73,193,224,2 ; shl $0x2,%r8
DB 76,3,0 ; add (%rax),%r8
DB 72,99,194 ; movslq %edx,%rax
- DB 68,15,40,5,115,211,1,0 ; movaps 0x1d373(%rip),%xmm8 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,40,5,147,53,1,0 ; movaps 0x13593(%rip),%xmm8 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 68,15,40,202 ; movaps %xmm2,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
@@ -21562,19 +21562,19 @@ _sk_load_f16_sse41 LABEL PROC
DB 102,68,15,97,224 ; punpcklwd %xmm0,%xmm12
DB 102,68,15,105,200 ; punpckhwd %xmm0,%xmm9
DB 102,65,15,56,51,212 ; pmovzxwd %xmm12,%xmm2
- DB 102,68,15,111,5,104,214,1,0 ; movdqa 0x1d668(%rip),%xmm8 # 34790 <_sk_srcover_rgba_8888_sse2_lowp+0x135c>
+ DB 102,68,15,111,5,136,56,1,0 ; movdqa 0x13888(%rip),%xmm8 # 2a9b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
DB 102,65,15,219,200 ; pand %xmm8,%xmm1
- DB 102,68,15,111,21,102,214,1,0 ; movdqa 0x1d666(%rip),%xmm10 # 347a0 <_sk_srcover_rgba_8888_sse2_lowp+0x136c>
+ DB 102,68,15,111,21,134,56,1,0 ; movdqa 0x13886(%rip),%xmm10 # 2a9c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
DB 102,65,15,219,210 ; pand %xmm10,%xmm2
- DB 102,15,111,29,105,214,1,0 ; movdqa 0x1d669(%rip),%xmm3 # 347b0 <_sk_srcover_rgba_8888_sse2_lowp+0x137c>
+ DB 102,15,111,29,137,56,1,0 ; movdqa 0x13889(%rip),%xmm3 # 2a9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
DB 102,15,114,241,16 ; pslld $0x10,%xmm1
DB 102,15,111,194 ; movdqa %xmm2,%xmm0
DB 102,15,56,63,195 ; pmaxud %xmm3,%xmm0
DB 102,15,118,194 ; pcmpeqd %xmm2,%xmm0
DB 102,15,114,242,13 ; pslld $0xd,%xmm2
DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,68,15,111,29,85,214,1,0 ; movdqa 0x1d655(%rip),%xmm11 # 347c0 <_sk_srcover_rgba_8888_sse2_lowp+0x138c>
+ DB 102,68,15,111,29,117,56,1,0 ; movdqa 0x13875(%rip),%xmm11 # 2a9e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
DB 102,65,15,254,211 ; paddd %xmm11,%xmm2
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 102,65,15,112,204,238 ; pshufd $0xee,%xmm12,%xmm1
@@ -21648,19 +21648,19 @@ _sk_load_f16_dst_sse41 LABEL PROC
DB 102,68,15,97,228 ; punpcklwd %xmm4,%xmm12
DB 102,68,15,105,204 ; punpckhwd %xmm4,%xmm9
DB 102,65,15,56,51,244 ; pmovzxwd %xmm12,%xmm6
- DB 102,68,15,111,5,202,212,1,0 ; movdqa 0x1d4ca(%rip),%xmm8 # 34790 <_sk_srcover_rgba_8888_sse2_lowp+0x135c>
+ DB 102,68,15,111,5,234,54,1,0 ; movdqa 0x136ea(%rip),%xmm8 # 2a9b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
DB 102,15,111,238 ; movdqa %xmm6,%xmm5
DB 102,65,15,219,232 ; pand %xmm8,%xmm5
- DB 102,68,15,111,21,200,212,1,0 ; movdqa 0x1d4c8(%rip),%xmm10 # 347a0 <_sk_srcover_rgba_8888_sse2_lowp+0x136c>
+ DB 102,68,15,111,21,232,54,1,0 ; movdqa 0x136e8(%rip),%xmm10 # 2a9c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
DB 102,65,15,219,242 ; pand %xmm10,%xmm6
- DB 102,15,111,61,203,212,1,0 ; movdqa 0x1d4cb(%rip),%xmm7 # 347b0 <_sk_srcover_rgba_8888_sse2_lowp+0x137c>
+ DB 102,15,111,61,235,54,1,0 ; movdqa 0x136eb(%rip),%xmm7 # 2a9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
DB 102,15,114,245,16 ; pslld $0x10,%xmm5
DB 102,15,111,230 ; movdqa %xmm6,%xmm4
DB 102,15,56,63,231 ; pmaxud %xmm7,%xmm4
DB 102,15,118,230 ; pcmpeqd %xmm6,%xmm4
DB 102,15,114,246,13 ; pslld $0xd,%xmm6
DB 102,15,235,245 ; por %xmm5,%xmm6
- DB 102,68,15,111,29,183,212,1,0 ; movdqa 0x1d4b7(%rip),%xmm11 # 347c0 <_sk_srcover_rgba_8888_sse2_lowp+0x138c>
+ DB 102,68,15,111,29,215,54,1,0 ; movdqa 0x136d7(%rip),%xmm11 # 2a9e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
DB 102,65,15,254,243 ; paddd %xmm11,%xmm6
DB 102,15,219,230 ; pand %xmm6,%xmm4
DB 102,65,15,112,236,238 ; pshufd $0xee,%xmm12,%xmm5
@@ -21743,19 +21743,19 @@ _sk_gather_f16_sse41 LABEL PROC
DB 102,68,15,97,226 ; punpcklwd %xmm2,%xmm12
DB 102,68,15,105,202 ; punpckhwd %xmm2,%xmm9
DB 102,65,15,56,51,212 ; pmovzxwd %xmm12,%xmm2
- DB 102,68,15,111,5,255,210,1,0 ; movdqa 0x1d2ff(%rip),%xmm8 # 34790 <_sk_srcover_rgba_8888_sse2_lowp+0x135c>
+ DB 102,68,15,111,5,31,53,1,0 ; movdqa 0x1351f(%rip),%xmm8 # 2a9b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
DB 102,65,15,219,200 ; pand %xmm8,%xmm1
- DB 102,68,15,111,21,253,210,1,0 ; movdqa 0x1d2fd(%rip),%xmm10 # 347a0 <_sk_srcover_rgba_8888_sse2_lowp+0x136c>
+ DB 102,68,15,111,21,29,53,1,0 ; movdqa 0x1351d(%rip),%xmm10 # 2a9c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
DB 102,65,15,219,210 ; pand %xmm10,%xmm2
- DB 102,15,111,29,0,211,1,0 ; movdqa 0x1d300(%rip),%xmm3 # 347b0 <_sk_srcover_rgba_8888_sse2_lowp+0x137c>
+ DB 102,15,111,29,32,53,1,0 ; movdqa 0x13520(%rip),%xmm3 # 2a9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
DB 102,15,114,241,16 ; pslld $0x10,%xmm1
DB 102,15,111,194 ; movdqa %xmm2,%xmm0
DB 102,15,56,63,195 ; pmaxud %xmm3,%xmm0
DB 102,15,118,194 ; pcmpeqd %xmm2,%xmm0
DB 102,15,114,242,13 ; pslld $0xd,%xmm2
DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,68,15,111,29,236,210,1,0 ; movdqa 0x1d2ec(%rip),%xmm11 # 347c0 <_sk_srcover_rgba_8888_sse2_lowp+0x138c>
+ DB 102,68,15,111,29,12,53,1,0 ; movdqa 0x1350c(%rip),%xmm11 # 2a9e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
DB 102,65,15,254,211 ; paddd %xmm11,%xmm2
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 102,65,15,112,204,238 ; pshufd $0xee,%xmm12,%xmm1
@@ -21806,20 +21806,20 @@ _sk_store_f16_sse41 LABEL PROC
DB 73,193,224,3 ; shl $0x3,%r8
DB 76,3,0 ; add (%rax),%r8
DB 72,99,194 ; movslq %edx,%rax
- DB 102,68,15,111,13,20,210,1,0 ; movdqa 0x1d214(%rip),%xmm9 # 347d0 <_sk_srcover_rgba_8888_sse2_lowp+0x139c>
+ DB 102,68,15,111,13,52,52,1,0 ; movdqa 0x13434(%rip),%xmm9 # 2a9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
DB 102,68,15,111,224 ; movdqa %xmm0,%xmm12
DB 102,69,15,219,225 ; pand %xmm9,%xmm12
- DB 102,68,15,111,29,17,210,1,0 ; movdqa 0x1d211(%rip),%xmm11 # 347e0 <_sk_srcover_rgba_8888_sse2_lowp+0x13ac>
+ DB 102,68,15,111,29,49,52,1,0 ; movdqa 0x13431(%rip),%xmm11 # 2aa00 <_sk_srcover_rgba_8888_sse2_lowp+0xf48>
DB 102,68,15,111,232 ; movdqa %xmm0,%xmm13
DB 102,69,15,219,235 ; pand %xmm11,%xmm13
- DB 102,68,15,111,21,14,210,1,0 ; movdqa 0x1d20e(%rip),%xmm10 # 347f0 <_sk_srcover_rgba_8888_sse2_lowp+0x13bc>
+ DB 102,68,15,111,21,46,52,1,0 ; movdqa 0x1342e(%rip),%xmm10 # 2aa10 <_sk_srcover_rgba_8888_sse2_lowp+0xf58>
DB 102,65,15,114,212,16 ; psrld $0x10,%xmm12
DB 102,69,15,111,197 ; movdqa %xmm13,%xmm8
DB 102,69,15,56,63,194 ; pmaxud %xmm10,%xmm8
DB 102,69,15,118,197 ; pcmpeqd %xmm13,%xmm8
DB 102,65,15,114,213,13 ; psrld $0xd,%xmm13
DB 102,69,15,254,236 ; paddd %xmm12,%xmm13
- DB 102,68,15,111,37,244,209,1,0 ; movdqa 0x1d1f4(%rip),%xmm12 # 34800 <_sk_srcover_rgba_8888_sse2_lowp+0x13cc>
+ DB 102,68,15,111,37,20,52,1,0 ; movdqa 0x13414(%rip),%xmm12 # 2aa20 <_sk_srcover_rgba_8888_sse2_lowp+0xf68>
DB 102,69,15,254,236 ; paddd %xmm12,%xmm13
DB 102,69,15,219,197 ; pand %xmm13,%xmm8
DB 102,68,15,56,43,192 ; packusdw %xmm0,%xmm8
@@ -21907,7 +21907,7 @@ _sk_load_u16_be_sse41 LABEL PROC
DB 102,15,235,200 ; por %xmm0,%xmm1
DB 102,15,56,51,193 ; pmovzxwd %xmm1,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,188,205,1,0 ; movaps 0x1cdbc(%rip),%xmm8 # 34560 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
+ DB 68,15,40,5,220,47,1,0 ; movaps 0x12fdc(%rip),%xmm8 # 2a780 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
DB 102,15,113,241,8 ; psllw $0x8,%xmm1
@@ -21979,7 +21979,7 @@ _sk_load_rgb_u16_be_sse41 LABEL PROC
DB 102,15,235,200 ; por %xmm0,%xmm1
DB 102,15,56,51,193 ; pmovzxwd %xmm1,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,139,204,1,0 ; movaps 0x1cc8b(%rip),%xmm8 # 34560 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
+ DB 68,15,40,5,171,46,1,0 ; movaps 0x12eab(%rip),%xmm8 # 2a780 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
DB 102,15,113,241,8 ; psllw $0x8,%xmm1
@@ -21996,7 +21996,7 @@ _sk_load_rgb_u16_be_sse41 LABEL PROC
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
DB 65,15,89,208 ; mulps %xmm8,%xmm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,178,201,1,0 ; movaps 0x1c9b2(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,210,43,1,0 ; movaps 0x12bd2(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 255,224 ; jmpq *%rax
DB 102,65,15,110,20,64 ; movd (%r8,%rax,2),%xmm2
DB 102,15,239,201 ; pxor %xmm1,%xmm1
@@ -22028,7 +22028,7 @@ _sk_store_u16_be_sse41 LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 73,99,193 ; movslq %r9d,%rax
- DB 68,15,40,21,107,206,1,0 ; movaps 0x1ce6b(%rip),%xmm10 # 34810 <_sk_srcover_rgba_8888_sse2_lowp+0x13dc>
+ DB 68,15,40,21,139,48,1,0 ; movaps 0x1308b(%rip),%xmm10 # 2aa30 <_sk_srcover_rgba_8888_sse2_lowp+0xf78>
DB 68,15,40,192 ; movaps %xmm0,%xmm8
DB 69,15,89,194 ; mulps %xmm10,%xmm8
DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
@@ -22287,7 +22287,7 @@ _sk_mirror_x_sse41 LABEL PROC
DB 65,15,92,194 ; subps %xmm10,%xmm0
DB 243,69,15,88,192 ; addss %xmm8,%xmm8
DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,89,13,57,195,1,0 ; mulss 0x1c339(%rip),%xmm9 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 243,68,15,89,13,121,37,1,0 ; mulss 0x12579(%rip),%xmm9 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
DB 68,15,89,200 ; mulps %xmm0,%xmm9
DB 102,69,15,58,8,201,1 ; roundps $0x1,%xmm9,%xmm9
@@ -22316,7 +22316,7 @@ _sk_mirror_y_sse41 LABEL PROC
DB 65,15,92,202 ; subps %xmm10,%xmm1
DB 243,69,15,88,192 ; addss %xmm8,%xmm8
DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,89,13,199,194,1,0 ; mulss 0x1c2c7(%rip),%xmm9 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 243,68,15,89,13,7,37,1,0 ; mulss 0x12507(%rip),%xmm9 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
DB 68,15,89,201 ; mulps %xmm1,%xmm9
DB 102,69,15,58,8,201,1 ; roundps $0x1,%xmm9,%xmm9
@@ -22339,7 +22339,7 @@ PUBLIC _sk_clamp_x_1_sse41
_sk_clamp_x_1_sse41 LABEL PROC
DB 69,15,87,192 ; xorps %xmm8,%xmm8
DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 68,15,93,5,158,196,1,0 ; minps 0x1c49e(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,93,5,190,38,1,0 ; minps 0x126be(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 65,15,40,192 ; movaps %xmm8,%xmm0
DB 255,224 ; jmpq *%rax
@@ -22353,9 +22353,9 @@ _sk_repeat_x_1_sse41 LABEL PROC
PUBLIC _sk_mirror_x_1_sse41
_sk_mirror_x_1_sse41 LABEL PROC
- DB 68,15,40,5,223,196,1,0 ; movaps 0x1c4df(%rip),%xmm8 # 34330 <_sk_srcover_rgba_8888_sse2_lowp+0xefc>
+ DB 68,15,40,5,255,38,1,0 ; movaps 0x126ff(%rip),%xmm8 # 2a550 <_sk_srcover_rgba_8888_sse2_lowp+0xa98>
DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,13,99,196,1,0 ; movaps 0x1c463(%rip),%xmm9 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,13,131,38,1,0 ; movaps 0x12683(%rip),%xmm9 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 68,15,89,200 ; mulps %xmm0,%xmm9
DB 102,69,15,58,8,201,1 ; roundps $0x1,%xmm9,%xmm9
DB 69,15,88,201 ; addps %xmm9,%xmm9
@@ -22370,10 +22370,10 @@ _sk_mirror_x_1_sse41 LABEL PROC
PUBLIC _sk_luminance_to_alpha_sse41
_sk_luminance_to_alpha_sse41 LABEL PROC
DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,89,5,146,201,1,0 ; mulps 0x1c992(%rip),%xmm0 # 34820 <_sk_srcover_rgba_8888_sse2_lowp+0x13ec>
- DB 15,89,13,155,201,1,0 ; mulps 0x1c99b(%rip),%xmm1 # 34830 <_sk_srcover_rgba_8888_sse2_lowp+0x13fc>
+ DB 15,89,5,178,43,1,0 ; mulps 0x12bb2(%rip),%xmm0 # 2aa40 <_sk_srcover_rgba_8888_sse2_lowp+0xf88>
+ DB 15,89,13,187,43,1,0 ; mulps 0x12bbb(%rip),%xmm1 # 2aa50 <_sk_srcover_rgba_8888_sse2_lowp+0xf98>
DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,89,29,161,201,1,0 ; mulps 0x1c9a1(%rip),%xmm3 # 34840 <_sk_srcover_rgba_8888_sse2_lowp+0x140c>
+ DB 15,89,29,193,43,1,0 ; mulps 0x12bc1(%rip),%xmm3 # 2aa60 <_sk_srcover_rgba_8888_sse2_lowp+0xfa8>
DB 15,88,217 ; addps %xmm1,%xmm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,87,192 ; xorps %xmm0,%xmm0
@@ -22758,15 +22758,15 @@ _sk_evenly_spaced_gradient_sse41 LABEL PROC
PUBLIC _sk_gauss_a_to_rgba_sse41
_sk_gauss_a_to_rgba_sse41 LABEL PROC
- DB 15,40,5,80,195,1,0 ; movaps 0x1c350(%rip),%xmm0 # 34850 <_sk_srcover_rgba_8888_sse2_lowp+0x141c>
+ DB 15,40,5,112,37,1,0 ; movaps 0x12570(%rip),%xmm0 # 2aa70 <_sk_srcover_rgba_8888_sse2_lowp+0xfb8>
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,86,195,1,0 ; addps 0x1c356(%rip),%xmm0 # 34860 <_sk_srcover_rgba_8888_sse2_lowp+0x142c>
+ DB 15,88,5,118,37,1,0 ; addps 0x12576(%rip),%xmm0 # 2aa80 <_sk_srcover_rgba_8888_sse2_lowp+0xfc8>
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,92,195,1,0 ; addps 0x1c35c(%rip),%xmm0 # 34870 <_sk_srcover_rgba_8888_sse2_lowp+0x143c>
+ DB 15,88,5,124,37,1,0 ; addps 0x1257c(%rip),%xmm0 # 2aa90 <_sk_srcover_rgba_8888_sse2_lowp+0xfd8>
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,98,195,1,0 ; addps 0x1c362(%rip),%xmm0 # 34880 <_sk_srcover_rgba_8888_sse2_lowp+0x144c>
+ DB 15,88,5,130,37,1,0 ; addps 0x12582(%rip),%xmm0 # 2aaa0 <_sk_srcover_rgba_8888_sse2_lowp+0xfe8>
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,104,195,1,0 ; addps 0x1c368(%rip),%xmm0 # 34890 <_sk_srcover_rgba_8888_sse2_lowp+0x145c>
+ DB 15,88,5,136,37,1,0 ; addps 0x12588(%rip),%xmm0 # 2aab0 <_sk_srcover_rgba_8888_sse2_lowp+0xff8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
@@ -22917,26 +22917,26 @@ _sk_xy_to_unit_angle_sse41 LABEL PROC
DB 69,15,94,226 ; divps %xmm10,%xmm12
DB 69,15,40,236 ; movaps %xmm12,%xmm13
DB 69,15,89,237 ; mulps %xmm13,%xmm13
- DB 68,15,40,21,223,192,1,0 ; movaps 0x1c0df(%rip),%xmm10 # 348a0 <_sk_srcover_rgba_8888_sse2_lowp+0x146c>
+ DB 68,15,40,21,255,34,1,0 ; movaps 0x122ff(%rip),%xmm10 # 2aac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1008>
DB 69,15,89,213 ; mulps %xmm13,%xmm10
- DB 68,15,88,21,227,192,1,0 ; addps 0x1c0e3(%rip),%xmm10 # 348b0 <_sk_srcover_rgba_8888_sse2_lowp+0x147c>
+ DB 68,15,88,21,3,35,1,0 ; addps 0x12303(%rip),%xmm10 # 2aad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1018>
DB 69,15,89,213 ; mulps %xmm13,%xmm10
- DB 68,15,88,21,231,192,1,0 ; addps 0x1c0e7(%rip),%xmm10 # 348c0 <_sk_srcover_rgba_8888_sse2_lowp+0x148c>
+ DB 68,15,88,21,7,35,1,0 ; addps 0x12307(%rip),%xmm10 # 2aae0 <_sk_srcover_rgba_8888_sse2_lowp+0x1028>
DB 69,15,89,213 ; mulps %xmm13,%xmm10
- DB 68,15,88,21,235,192,1,0 ; addps 0x1c0eb(%rip),%xmm10 # 348d0 <_sk_srcover_rgba_8888_sse2_lowp+0x149c>
+ DB 68,15,88,21,11,35,1,0 ; addps 0x1230b(%rip),%xmm10 # 2aaf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1038>
DB 69,15,89,212 ; mulps %xmm12,%xmm10
DB 65,15,194,195,1 ; cmpltps %xmm11,%xmm0
- DB 68,15,40,29,234,192,1,0 ; movaps 0x1c0ea(%rip),%xmm11 # 348e0 <_sk_srcover_rgba_8888_sse2_lowp+0x14ac>
+ DB 68,15,40,29,10,35,1,0 ; movaps 0x1230a(%rip),%xmm11 # 2ab00 <_sk_srcover_rgba_8888_sse2_lowp+0x1048>
DB 69,15,92,218 ; subps %xmm10,%xmm11
DB 102,69,15,56,20,211 ; blendvps %xmm0,%xmm11,%xmm10
DB 69,15,194,200,1 ; cmpltps %xmm8,%xmm9
- DB 68,15,40,29,179,186,1,0 ; movaps 0x1bab3(%rip),%xmm11 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,29,211,28,1,0 ; movaps 0x11cd3(%rip),%xmm11 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 69,15,92,218 ; subps %xmm10,%xmm11
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 102,69,15,56,20,211 ; blendvps %xmm0,%xmm11,%xmm10
DB 15,40,193 ; movaps %xmm1,%xmm0
DB 65,15,194,192,1 ; cmpltps %xmm8,%xmm0
- DB 68,15,40,13,165,186,1,0 ; movaps 0x1baa5(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,197,28,1,0 ; movaps 0x11cc5(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,202 ; subps %xmm10,%xmm9
DB 102,69,15,56,20,209 ; blendvps %xmm0,%xmm9,%xmm10
DB 69,15,194,194,7 ; cmpordps %xmm10,%xmm8
@@ -22966,7 +22966,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41 LABEL PROC
DB 243,69,15,89,203 ; mulss %xmm11,%xmm9
DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 68,15,89,13,94,192,1,0 ; mulps 0x1c05e(%rip),%xmm9 # 348f0 <_sk_srcover_rgba_8888_sse2_lowp+0x14bc>
+ DB 68,15,89,13,126,34,1,0 ; mulps 0x1227e(%rip),%xmm9 # 2ab10 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
DB 15,89,192 ; mulps %xmm0,%xmm0
DB 68,15,40,225 ; movaps %xmm1,%xmm12
DB 69,15,89,228 ; mulps %xmm12,%xmm12
@@ -22974,7 +22974,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41 LABEL PROC
DB 243,69,15,89,219 ; mulss %xmm11,%xmm11
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 69,15,92,227 ; subps %xmm11,%xmm12
- DB 68,15,89,21,73,192,1,0 ; mulps 0x1c049(%rip),%xmm10 # 34900 <_sk_srcover_rgba_8888_sse2_lowp+0x14cc>
+ DB 68,15,89,21,105,34,1,0 ; mulps 0x12269(%rip),%xmm10 # 2ab20 <_sk_srcover_rgba_8888_sse2_lowp+0x1068>
DB 69,15,89,212 ; mulps %xmm12,%xmm10
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 15,89,192 ; mulps %xmm0,%xmm0
@@ -22983,8 +22983,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41 LABEL PROC
DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
DB 65,15,40,194 ; movaps %xmm10,%xmm0
DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 68,15,87,13,241,190,1,0 ; xorps 0x1bef1(%rip),%xmm9 # 347d0 <_sk_srcover_rgba_8888_sse2_lowp+0x139c>
- DB 68,15,89,5,217,185,1,0 ; mulps 0x1b9d9(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,87,13,17,33,1,0 ; xorps 0x12111(%rip),%xmm9 # 2a9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
+ DB 68,15,89,5,249,27,1,0 ; mulps 0x11bf9(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 69,15,92,202 ; subps %xmm10,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
@@ -23003,7 +23003,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41 LABEL PROC
DB 243,69,15,89,203 ; mulss %xmm11,%xmm9
DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 68,15,89,13,192,191,1,0 ; mulps 0x1bfc0(%rip),%xmm9 # 348f0 <_sk_srcover_rgba_8888_sse2_lowp+0x14bc>
+ DB 68,15,89,13,224,33,1,0 ; mulps 0x121e0(%rip),%xmm9 # 2ab10 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
DB 15,89,192 ; mulps %xmm0,%xmm0
DB 68,15,40,225 ; movaps %xmm1,%xmm12
DB 69,15,89,228 ; mulps %xmm12,%xmm12
@@ -23011,7 +23011,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41 LABEL PROC
DB 243,69,15,89,219 ; mulss %xmm11,%xmm11
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 69,15,92,227 ; subps %xmm11,%xmm12
- DB 68,15,89,21,171,191,1,0 ; mulps 0x1bfab(%rip),%xmm10 # 34900 <_sk_srcover_rgba_8888_sse2_lowp+0x14cc>
+ DB 68,15,89,21,203,33,1,0 ; mulps 0x121cb(%rip),%xmm10 # 2ab20 <_sk_srcover_rgba_8888_sse2_lowp+0x1068>
DB 69,15,89,212 ; mulps %xmm12,%xmm10
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 15,89,192 ; mulps %xmm0,%xmm0
@@ -23020,8 +23020,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41 LABEL PROC
DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
DB 65,15,40,194 ; movaps %xmm10,%xmm0
DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 68,15,87,13,83,190,1,0 ; xorps 0x1be53(%rip),%xmm9 # 347d0 <_sk_srcover_rgba_8888_sse2_lowp+0x139c>
- DB 68,15,89,5,59,185,1,0 ; mulps 0x1b93b(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,87,13,115,32,1,0 ; xorps 0x12073(%rip),%xmm9 # 2a9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
+ DB 68,15,89,5,91,27,1,0 ; mulps 0x11b5b(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 69,15,92,202 ; subps %xmm10,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
@@ -23037,7 +23037,7 @@ _sk_xy_to_2pt_conical_linear_sse41 LABEL PROC
DB 243,69,15,89,200 ; mulss %xmm8,%xmm9
DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 68,15,89,13,51,191,1,0 ; mulps 0x1bf33(%rip),%xmm9 # 348f0 <_sk_srcover_rgba_8888_sse2_lowp+0x14bc>
+ DB 68,15,89,13,83,33,1,0 ; mulps 0x12153(%rip),%xmm9 # 2ab10 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
DB 15,89,192 ; mulps %xmm0,%xmm0
DB 68,15,40,209 ; movaps %xmm1,%xmm10
DB 69,15,89,210 ; mulps %xmm10,%xmm10
@@ -23045,7 +23045,7 @@ _sk_xy_to_2pt_conical_linear_sse41 LABEL PROC
DB 243,69,15,89,192 ; mulss %xmm8,%xmm8
DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 15,87,5,239,189,1,0 ; xorps 0x1bdef(%rip),%xmm0 # 347d0 <_sk_srcover_rgba_8888_sse2_lowp+0x139c>
+ DB 15,87,5,15,32,1,0 ; xorps 0x1200f(%rip),%xmm0 # 2a9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
DB 65,15,94,193 ; divps %xmm9,%xmm0
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -23082,7 +23082,7 @@ _sk_apply_vector_mask_sse41 LABEL PROC
PUBLIC _sk_save_xy_sse41
_sk_save_xy_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,117,184,1,0 ; movaps 0x1b875(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,5,149,26,1,0 ; movaps 0x11a95(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 15,17,0 ; movups %xmm0,(%rax)
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,88,200 ; addps %xmm8,%xmm9
@@ -23122,8 +23122,8 @@ _sk_bilinear_nx_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,64,64 ; movups 0x40(%rax),%xmm8
- DB 15,88,5,55,190,1,0 ; addps 0x1be37(%rip),%xmm0 # 34910 <_sk_srcover_rgba_8888_sse2_lowp+0x14dc>
- DB 68,15,40,13,239,183,1,0 ; movaps 0x1b7ef(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,5,87,32,1,0 ; addps 0x12057(%rip),%xmm0 # 2ab30 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ DB 68,15,40,13,15,26,1,0 ; movaps 0x11a0f(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
DB 68,15,17,136,128,0,0,0 ; movups %xmm9,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -23134,7 +23134,7 @@ _sk_bilinear_px_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,64,64 ; movups 0x40(%rax),%xmm8
- DB 15,88,5,190,183,1,0 ; addps 0x1b7be(%rip),%xmm0 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 15,88,5,222,25,1,0 ; addps 0x119de(%rip),%xmm0 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 68,15,17,128,128,0,0,0 ; movups %xmm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -23144,8 +23144,8 @@ _sk_bilinear_ny_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,64,96 ; movups 0x60(%rax),%xmm8
- DB 15,88,13,240,189,1,0 ; addps 0x1bdf0(%rip),%xmm1 # 34910 <_sk_srcover_rgba_8888_sse2_lowp+0x14dc>
- DB 68,15,40,13,168,183,1,0 ; movaps 0x1b7a8(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,13,16,32,1,0 ; addps 0x12010(%rip),%xmm1 # 2ab30 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ DB 68,15,40,13,200,25,1,0 ; movaps 0x119c8(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
DB 68,15,17,136,160,0,0,0 ; movups %xmm9,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -23156,7 +23156,7 @@ _sk_bilinear_py_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,64,96 ; movups 0x60(%rax),%xmm8
- DB 15,88,13,118,183,1,0 ; addps 0x1b776(%rip),%xmm1 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 15,88,13,150,25,1,0 ; addps 0x11996(%rip),%xmm1 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 68,15,17,128,160,0,0,0 ; movups %xmm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -23166,13 +23166,13 @@ _sk_bicubic_n3x_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,64,64 ; movups 0x40(%rax),%xmm8
- DB 15,88,5,185,189,1,0 ; addps 0x1bdb9(%rip),%xmm0 # 34920 <_sk_srcover_rgba_8888_sse2_lowp+0x14ec>
- DB 68,15,40,13,97,183,1,0 ; movaps 0x1b761(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,5,217,31,1,0 ; addps 0x11fd9(%rip),%xmm0 # 2ab40 <_sk_srcover_rgba_8888_sse2_lowp+0x1088>
+ DB 68,15,40,13,129,25,1,0 ; movaps 0x11981(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
DB 69,15,40,193 ; movaps %xmm9,%xmm8
DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,89,13,173,189,1,0 ; mulps 0x1bdad(%rip),%xmm9 # 34930 <_sk_srcover_rgba_8888_sse2_lowp+0x14fc>
- DB 68,15,88,13,53,185,1,0 ; addps 0x1b935(%rip),%xmm9 # 344c0 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ DB 68,15,89,13,205,31,1,0 ; mulps 0x11fcd(%rip),%xmm9 # 2ab50 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ DB 68,15,88,13,85,27,1,0 ; addps 0x11b55(%rip),%xmm9 # 2a6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 68,15,17,136,128,0,0,0 ; movups %xmm9,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -23183,16 +23183,16 @@ _sk_bicubic_n1x_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,64,64 ; movups 0x40(%rax),%xmm8
- DB 15,88,5,100,189,1,0 ; addps 0x1bd64(%rip),%xmm0 # 34910 <_sk_srcover_rgba_8888_sse2_lowp+0x14dc>
- DB 68,15,40,13,28,183,1,0 ; movaps 0x1b71c(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,5,132,31,1,0 ; addps 0x11f84(%rip),%xmm0 # 2ab30 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ DB 68,15,40,13,60,25,1,0 ; movaps 0x1193c(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,40,5,128,189,1,0 ; movaps 0x1bd80(%rip),%xmm8 # 34940 <_sk_srcover_rgba_8888_sse2_lowp+0x150c>
+ DB 68,15,40,5,160,31,1,0 ; movaps 0x11fa0(%rip),%xmm8 # 2ab60 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,132,189,1,0 ; addps 0x1bd84(%rip),%xmm8 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 68,15,88,5,164,31,1,0 ; addps 0x11fa4(%rip),%xmm8 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,232,182,1,0 ; addps 0x1b6e8(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,88,5,8,25,1,0 ; addps 0x11908(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,124,189,1,0 ; addps 0x1bd7c(%rip),%xmm8 # 34960 <_sk_srcover_rgba_8888_sse2_lowp+0x152c>
+ DB 68,15,88,5,156,31,1,0 ; addps 0x11f9c(%rip),%xmm8 # 2ab80 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
DB 68,15,17,128,128,0,0,0 ; movups %xmm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -23200,17 +23200,17 @@ _sk_bicubic_n1x_sse41 LABEL PROC
PUBLIC _sk_bicubic_p1x_sse41
_sk_bicubic_p1x_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,198,182,1,0 ; movaps 0x1b6c6(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,5,230,24,1,0 ; movaps 0x118e6(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,72,64 ; movups 0x40(%rax),%xmm9
DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,21,50,189,1,0 ; movaps 0x1bd32(%rip),%xmm10 # 34940 <_sk_srcover_rgba_8888_sse2_lowp+0x150c>
+ DB 68,15,40,21,82,31,1,0 ; movaps 0x11f52(%rip),%xmm10 # 2ab60 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,54,189,1,0 ; addps 0x1bd36(%rip),%xmm10 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 68,15,88,21,86,31,1,0 ; addps 0x11f56(%rip),%xmm10 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,89,209 ; mulps %xmm9,%xmm10
DB 69,15,88,208 ; addps %xmm8,%xmm10
DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,50,189,1,0 ; addps 0x1bd32(%rip),%xmm10 # 34960 <_sk_srcover_rgba_8888_sse2_lowp+0x152c>
+ DB 68,15,88,21,82,31,1,0 ; addps 0x11f52(%rip),%xmm10 # 2ab80 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
DB 68,15,17,144,128,0,0,0 ; movups %xmm10,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -23220,11 +23220,11 @@ _sk_bicubic_p3x_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,64,64 ; movups 0x40(%rax),%xmm8
- DB 15,88,5,5,189,1,0 ; addps 0x1bd05(%rip),%xmm0 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 15,88,5,37,31,1,0 ; addps 0x11f25(%rip),%xmm0 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,89,5,213,188,1,0 ; mulps 0x1bcd5(%rip),%xmm8 # 34930 <_sk_srcover_rgba_8888_sse2_lowp+0x14fc>
- DB 68,15,88,5,93,184,1,0 ; addps 0x1b85d(%rip),%xmm8 # 344c0 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ DB 68,15,89,5,245,30,1,0 ; mulps 0x11ef5(%rip),%xmm8 # 2ab50 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ DB 68,15,88,5,125,26,1,0 ; addps 0x11a7d(%rip),%xmm8 # 2a6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
DB 68,15,17,128,128,0,0,0 ; movups %xmm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -23235,13 +23235,13 @@ _sk_bicubic_n3y_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,64,96 ; movups 0x60(%rax),%xmm8
- DB 15,88,13,155,188,1,0 ; addps 0x1bc9b(%rip),%xmm1 # 34920 <_sk_srcover_rgba_8888_sse2_lowp+0x14ec>
- DB 68,15,40,13,67,182,1,0 ; movaps 0x1b643(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,13,187,30,1,0 ; addps 0x11ebb(%rip),%xmm1 # 2ab40 <_sk_srcover_rgba_8888_sse2_lowp+0x1088>
+ DB 68,15,40,13,99,24,1,0 ; movaps 0x11863(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
DB 69,15,40,193 ; movaps %xmm9,%xmm8
DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,89,13,143,188,1,0 ; mulps 0x1bc8f(%rip),%xmm9 # 34930 <_sk_srcover_rgba_8888_sse2_lowp+0x14fc>
- DB 68,15,88,13,23,184,1,0 ; addps 0x1b817(%rip),%xmm9 # 344c0 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ DB 68,15,89,13,175,30,1,0 ; mulps 0x11eaf(%rip),%xmm9 # 2ab50 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ DB 68,15,88,13,55,26,1,0 ; addps 0x11a37(%rip),%xmm9 # 2a6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 68,15,17,136,160,0,0,0 ; movups %xmm9,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -23252,16 +23252,16 @@ _sk_bicubic_n1y_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,64,96 ; movups 0x60(%rax),%xmm8
- DB 15,88,13,69,188,1,0 ; addps 0x1bc45(%rip),%xmm1 # 34910 <_sk_srcover_rgba_8888_sse2_lowp+0x14dc>
- DB 68,15,40,13,253,181,1,0 ; movaps 0x1b5fd(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,13,101,30,1,0 ; addps 0x11e65(%rip),%xmm1 # 2ab30 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ DB 68,15,40,13,29,24,1,0 ; movaps 0x1181d(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,40,5,97,188,1,0 ; movaps 0x1bc61(%rip),%xmm8 # 34940 <_sk_srcover_rgba_8888_sse2_lowp+0x150c>
+ DB 68,15,40,5,129,30,1,0 ; movaps 0x11e81(%rip),%xmm8 # 2ab60 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,101,188,1,0 ; addps 0x1bc65(%rip),%xmm8 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 68,15,88,5,133,30,1,0 ; addps 0x11e85(%rip),%xmm8 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,201,181,1,0 ; addps 0x1b5c9(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,88,5,233,23,1,0 ; addps 0x117e9(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,93,188,1,0 ; addps 0x1bc5d(%rip),%xmm8 # 34960 <_sk_srcover_rgba_8888_sse2_lowp+0x152c>
+ DB 68,15,88,5,125,30,1,0 ; addps 0x11e7d(%rip),%xmm8 # 2ab80 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
DB 68,15,17,128,160,0,0,0 ; movups %xmm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -23269,17 +23269,17 @@ _sk_bicubic_n1y_sse41 LABEL PROC
PUBLIC _sk_bicubic_p1y_sse41
_sk_bicubic_p1y_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,167,181,1,0 ; movaps 0x1b5a7(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,5,199,23,1,0 ; movaps 0x117c7(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,72,96 ; movups 0x60(%rax),%xmm9
DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 68,15,40,21,18,188,1,0 ; movaps 0x1bc12(%rip),%xmm10 # 34940 <_sk_srcover_rgba_8888_sse2_lowp+0x150c>
+ DB 68,15,40,21,50,30,1,0 ; movaps 0x11e32(%rip),%xmm10 # 2ab60 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,22,188,1,0 ; addps 0x1bc16(%rip),%xmm10 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 68,15,88,21,54,30,1,0 ; addps 0x11e36(%rip),%xmm10 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,89,209 ; mulps %xmm9,%xmm10
DB 69,15,88,208 ; addps %xmm8,%xmm10
DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,18,188,1,0 ; addps 0x1bc12(%rip),%xmm10 # 34960 <_sk_srcover_rgba_8888_sse2_lowp+0x152c>
+ DB 68,15,88,21,50,30,1,0 ; addps 0x11e32(%rip),%xmm10 # 2ab80 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
DB 68,15,17,144,160,0,0,0 ; movups %xmm10,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -23289,11 +23289,11 @@ _sk_bicubic_p3y_sse41 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,64,96 ; movups 0x60(%rax),%xmm8
- DB 15,88,13,228,187,1,0 ; addps 0x1bbe4(%rip),%xmm1 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 15,88,13,4,30,1,0 ; addps 0x11e04(%rip),%xmm1 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,89,5,180,187,1,0 ; mulps 0x1bbb4(%rip),%xmm8 # 34930 <_sk_srcover_rgba_8888_sse2_lowp+0x14fc>
- DB 68,15,88,5,60,183,1,0 ; addps 0x1b73c(%rip),%xmm8 # 344c0 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ DB 68,15,89,5,212,29,1,0 ; mulps 0x11dd4(%rip),%xmm8 # 2ab50 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ DB 68,15,88,5,92,25,1,0 ; addps 0x1195c(%rip),%xmm8 # 2a6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
DB 68,15,17,128,160,0,0,0 ; movups %xmm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -23388,7 +23388,7 @@ _sk_clut_3D_sse41 LABEL PROC
DB 15,89,194 ; mulps %xmm2,%xmm0
DB 15,41,68,36,80 ; movaps %xmm0,0x50(%rsp)
DB 243,15,91,240 ; cvttps2dq %xmm0,%xmm6
- DB 15,40,37,183,186,1,0 ; movaps 0x1bab7(%rip),%xmm4 # 34970 <_sk_srcover_rgba_8888_sse2_lowp+0x153c>
+ DB 15,40,37,215,28,1,0 ; movaps 0x11cd7(%rip),%xmm4 # 2ab90 <_sk_srcover_rgba_8888_sse2_lowp+0x10d8>
DB 15,88,196 ; addps %xmm4,%xmm0
DB 15,41,68,36,48 ; movaps %xmm0,0x30(%rsp)
DB 102,65,15,110,208 ; movd %r8d,%xmm2
@@ -23427,7 +23427,7 @@ _sk_clut_3D_sse41 LABEL PROC
DB 102,68,15,56,64,192 ; pmulld %xmm0,%xmm8
DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
DB 102,15,254,218 ; paddd %xmm2,%xmm3
- DB 102,68,15,111,37,14,186,1,0 ; movdqa 0x1ba0e(%rip),%xmm12 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,68,15,111,37,46,28,1,0 ; movdqa 0x11c2e(%rip),%xmm12 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,65,15,56,64,220 ; pmulld %xmm12,%xmm3
DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
@@ -23450,7 +23450,7 @@ _sk_clut_3D_sse41 LABEL PROC
DB 102,65,15,58,22,217,1 ; pextrd $0x1,%xmm3,%r9d
DB 102,65,15,58,22,218,2 ; pextrd $0x2,%xmm3,%r10d
DB 102,65,15,58,22,219,3 ; pextrd $0x3,%xmm3,%r11d
- DB 102,15,111,37,18,179,1,0 ; movdqa 0x1b312(%rip),%xmm4 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,111,37,50,21,1,0 ; movdqa 0x11532(%rip),%xmm4 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,254,220 ; paddd %xmm4,%xmm3
DB 102,15,111,252 ; movdqa %xmm4,%xmm7
DB 102,73,15,58,22,222,1 ; pextrq $0x1,%xmm3,%r14
@@ -23623,7 +23623,7 @@ _sk_clut_3D_sse41 LABEL PROC
DB 102,68,15,254,202 ; paddd %xmm2,%xmm9
DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
DB 102,65,15,254,193 ; paddd %xmm9,%xmm0
- DB 102,15,111,45,29,182,1,0 ; movdqa 0x1b61d(%rip),%xmm5 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,45,61,24,1,0 ; movdqa 0x1183d(%rip),%xmm5 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,56,64,197 ; pmulld %xmm5,%xmm0
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
DB 102,15,118,246 ; pcmpeqd %xmm6,%xmm6
@@ -23644,7 +23644,7 @@ _sk_clut_3D_sse41 LABEL PROC
DB 102,65,15,58,22,193,1 ; pextrd $0x1,%xmm0,%r9d
DB 102,65,15,58,22,194,2 ; pextrd $0x2,%xmm0,%r10d
DB 102,65,15,58,22,195,3 ; pextrd $0x3,%xmm0,%r11d
- DB 102,15,111,61,46,175,1,0 ; movdqa 0x1af2e(%rip),%xmm7 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,111,61,78,17,1,0 ; movdqa 0x1114e(%rip),%xmm7 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,254,199 ; paddd %xmm7,%xmm0
DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
DB 102,72,15,126,195 ; movq %xmm0,%rbx
@@ -23710,7 +23710,7 @@ _sk_clut_3D_sse41 LABEL PROC
DB 15,88,248 ; addps %xmm0,%xmm7
DB 102,68,15,254,210 ; paddd %xmm2,%xmm10
DB 102,69,15,254,194 ; paddd %xmm10,%xmm8
- DB 102,15,111,13,89,180,1,0 ; movdqa 0x1b459(%rip),%xmm1 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,13,121,22,1,0 ; movdqa 0x11679(%rip),%xmm1 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,68,15,56,64,193 ; pmulld %xmm1,%xmm8
DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
DB 102,15,118,237 ; pcmpeqd %xmm5,%xmm5
@@ -23731,7 +23731,7 @@ _sk_clut_3D_sse41 LABEL PROC
DB 102,69,15,58,22,193,1 ; pextrd $0x1,%xmm8,%r9d
DB 102,69,15,58,22,194,2 ; pextrd $0x2,%xmm8,%r10d
DB 102,69,15,58,22,195,3 ; pextrd $0x3,%xmm8,%r11d
- DB 102,15,111,21,100,173,1,0 ; movdqa 0x1ad64(%rip),%xmm2 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,111,21,132,15,1,0 ; movdqa 0x10f84(%rip),%xmm2 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,68,15,254,194 ; paddd %xmm2,%xmm8
DB 102,76,15,58,22,193,1 ; pextrq $0x1,%xmm8,%rcx
DB 102,76,15,126,195 ; movq %xmm8,%rbx
@@ -23856,7 +23856,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 15,89,203 ; mulps %xmm3,%xmm1
DB 15,41,140,36,176,0,0,0 ; movaps %xmm1,0xb0(%rsp)
DB 243,15,91,249 ; cvttps2dq %xmm1,%xmm7
- DB 15,40,29,155,177,1,0 ; movaps 0x1b19b(%rip),%xmm3 # 34970 <_sk_srcover_rgba_8888_sse2_lowp+0x153c>
+ DB 15,40,29,187,19,1,0 ; movaps 0x113bb(%rip),%xmm3 # 2ab90 <_sk_srcover_rgba_8888_sse2_lowp+0x10d8>
DB 15,88,203 ; addps %xmm3,%xmm1
DB 15,41,76,36,32 ; movaps %xmm1,0x20(%rsp)
DB 102,65,15,110,232 ; movd %r8d,%xmm5
@@ -23913,7 +23913,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,68,15,56,64,253 ; pmulld %xmm5,%xmm15
DB 102,65,15,111,223 ; movdqa %xmm15,%xmm3
DB 102,15,254,217 ; paddd %xmm1,%xmm3
- DB 102,68,15,111,29,149,176,1,0 ; movdqa 0x1b095(%rip),%xmm11 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,68,15,111,29,181,18,1,0 ; movdqa 0x112b5(%rip),%xmm11 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,65,15,56,64,219 ; pmulld %xmm11,%xmm3
DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
DB 102,15,111,243 ; movdqa %xmm3,%xmm6
@@ -23935,7 +23935,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,65,15,58,22,217,1 ; pextrd $0x1,%xmm3,%r9d
DB 102,65,15,58,22,218,2 ; pextrd $0x2,%xmm3,%r10d
DB 102,65,15,58,22,219,3 ; pextrd $0x3,%xmm3,%r11d
- DB 102,68,15,111,21,157,169,1,0 ; movdqa 0x1a99d(%rip),%xmm10 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,68,15,111,21,189,11,1,0 ; movdqa 0x10bbd(%rip),%xmm10 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,65,15,254,218 ; paddd %xmm10,%xmm3
DB 102,73,15,58,22,222,1 ; pextrq $0x1,%xmm3,%r14
DB 102,72,15,126,219 ; movq %xmm3,%rbx
@@ -23953,7 +23953,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,65,15,254,201 ; paddd %xmm9,%xmm1
DB 102,65,15,56,64,203 ; pmulld %xmm11,%xmm1
DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,250,29,203,175,1,0 ; psubd 0x1afcb(%rip),%xmm3 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,29,235,17,1,0 ; psubd 0x111eb(%rip),%xmm3 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,73,15,58,22,222,1 ; pextrq $0x1,%xmm3,%r14
DB 102,72,15,126,219 ; movq %xmm3,%rbx
DB 65,137,223 ; mov %ebx,%r15d
@@ -24008,7 +24008,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,65,15,254,199 ; paddd %xmm15,%xmm0
DB 102,65,15,56,64,195 ; pmulld %xmm11,%xmm0
DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,250,45,171,174,1,0 ; psubd 0x1aeab(%rip),%xmm5 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,45,203,16,1,0 ; psubd 0x110cb(%rip),%xmm5 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
DB 102,72,15,58,22,233,1 ; pextrq $0x1,%xmm5,%rcx
DB 102,72,15,126,237 ; movq %xmm5,%rbp
@@ -24133,7 +24133,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 72,193,233,32 ; shr $0x20,%rcx
DB 243,15,16,36,136 ; movss (%rax,%rcx,4),%xmm4
DB 102,68,15,58,33,220,48 ; insertps $0x30,%xmm4,%xmm11
- DB 102,15,111,61,142,165,1,0 ; movdqa 0x1a58e(%rip),%xmm7 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,111,61,174,7,1,0 ; movdqa 0x107ae(%rip),%xmm7 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,254,223 ; paddd %xmm7,%xmm3
DB 102,72,15,58,22,217,1 ; pextrq $0x1,%xmm3,%rcx
DB 102,72,15,126,221 ; movq %xmm3,%rbp
@@ -24219,7 +24219,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,65,15,58,22,201,1 ; pextrd $0x1,%xmm1,%r9d
DB 102,65,15,58,22,202,2 ; pextrd $0x2,%xmm1,%r10d
DB 102,65,15,58,22,203,3 ; pextrd $0x3,%xmm1,%r11d
- DB 102,68,15,111,21,206,163,1,0 ; movdqa 0x1a3ce(%rip),%xmm10 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,68,15,111,21,238,5,1,0 ; movdqa 0x105ee(%rip),%xmm10 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,65,15,254,202 ; paddd %xmm10,%xmm1
DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
DB 102,72,15,126,203 ; movq %xmm1,%rbx
@@ -24315,7 +24315,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,15,111,124,36,64 ; movdqa 0x40(%rsp),%xmm7
DB 102,15,111,199 ; movdqa %xmm7,%xmm0
DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 102,15,111,21,98,168,1,0 ; movdqa 0x1a862(%rip),%xmm2 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,21,130,10,1,0 ; movdqa 0x10a82(%rip),%xmm2 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,56,64,194 ; pmulld %xmm2,%xmm0
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
@@ -24336,7 +24336,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,65,15,58,22,193,1 ; pextrd $0x1,%xmm0,%r9d
DB 102,65,15,58,22,194,2 ; pextrd $0x2,%xmm0,%r10d
DB 102,65,15,58,22,195,3 ; pextrd $0x3,%xmm0,%r11d
- DB 102,15,111,37,113,161,1,0 ; movdqa 0x1a171(%rip),%xmm4 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,111,37,145,3,1,0 ; movdqa 0x10391(%rip),%xmm4 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,254,196 ; paddd %xmm4,%xmm0
DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
DB 102,72,15,126,195 ; movq %xmm0,%rbx
@@ -24408,7 +24408,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,68,15,111,226 ; movdqa %xmm2,%xmm12
DB 102,65,15,56,64,204 ; pmulld %xmm12,%xmm1
DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,250,21,141,166,1,0 ; psubd 0x1a68d(%rip),%xmm2 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,21,173,8,1,0 ; psubd 0x108ad(%rip),%xmm2 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,72,15,58,22,209,1 ; pextrq $0x1,%xmm2,%rcx
DB 102,72,15,126,213 ; movq %xmm2,%rbp
DB 137,235 ; mov %ebp,%ebx
@@ -24442,7 +24442,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,65,15,111,249 ; movdqa %xmm9,%xmm7
DB 102,69,15,56,64,236 ; pmulld %xmm12,%xmm13
DB 102,65,15,111,205 ; movdqa %xmm13,%xmm1
- DB 102,15,250,13,217,165,1,0 ; psubd 0x1a5d9(%rip),%xmm1 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,13,249,7,1,0 ; psubd 0x107f9(%rip),%xmm1 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
DB 102,72,15,126,203 ; movq %xmm1,%rbx
DB 137,221 ; mov %ebx,%ebp
@@ -24507,7 +24507,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,65,15,111,206 ; movdqa %xmm14,%xmm1
DB 102,15,111,108,36,64 ; movdqa 0x40(%rsp),%xmm5
DB 102,15,254,205 ; paddd %xmm5,%xmm1
- DB 102,15,111,37,109,164,1,0 ; movdqa 0x1a46d(%rip),%xmm4 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,37,141,6,1,0 ; movdqa 0x1068d(%rip),%xmm4 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,56,64,204 ; pmulld %xmm4,%xmm1
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
DB 102,15,118,246 ; pcmpeqd %xmm6,%xmm6
@@ -24528,7 +24528,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,65,15,58,22,201,1 ; pextrd $0x1,%xmm1,%r9d
DB 102,65,15,58,22,202,2 ; pextrd $0x2,%xmm1,%r10d
DB 102,65,15,58,22,203,3 ; pextrd $0x3,%xmm1,%r11d
- DB 102,15,111,29,126,157,1,0 ; movdqa 0x19d7e(%rip),%xmm3 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,111,29,158,255,0,0 ; movdqa 0xff9e(%rip),%xmm3 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,254,203 ; paddd %xmm3,%xmm1
DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
DB 102,72,15,126,203 ; movq %xmm1,%rbx
@@ -24600,7 +24600,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,15,56,64,239 ; pmulld %xmm7,%xmm5
DB 102,15,111,205 ; movdqa %xmm5,%xmm1
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,250,5,158,162,1,0 ; psubd 0x1a29e(%rip),%xmm0 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,5,190,4,1,0 ; psubd 0x104be(%rip),%xmm0 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
DB 102,72,15,126,197 ; movq %xmm0,%rbp
DB 137,235 ; mov %ebp,%ebx
@@ -24618,7 +24618,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,65,15,58,22,193,1 ; pextrd $0x1,%xmm0,%r9d
DB 102,65,15,58,22,194,2 ; pextrd $0x2,%xmm0,%r10d
DB 102,65,15,58,22,195,3 ; pextrd $0x3,%xmm0,%r11d
- DB 102,15,254,5,172,155,1,0 ; paddd 0x19bac(%rip),%xmm0 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,254,5,204,253,0,0 ; paddd 0xfdcc(%rip),%xmm0 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
DB 102,72,15,126,195 ; movq %xmm0,%rbx
DB 137,221 ; mov %ebx,%ebp
@@ -24634,7 +24634,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,15,254,84,36,48 ; paddd 0x30(%rsp),%xmm2
DB 102,15,56,64,215 ; pmulld %xmm7,%xmm2
DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,250,5,229,161,1,0 ; psubd 0x1a1e5(%rip),%xmm0 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,5,5,4,1,0 ; psubd 0x10405(%rip),%xmm0 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
DB 102,72,15,126,195 ; movq %xmm0,%rbx
DB 137,221 ; mov %ebx,%ebp
@@ -24652,7 +24652,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 102,65,15,58,22,199,1 ; pextrd $0x1,%xmm0,%r15d
DB 102,65,15,58,22,196,2 ; pextrd $0x2,%xmm0,%r12d
DB 102,65,15,58,22,198,3 ; pextrd $0x3,%xmm0,%r14d
- DB 102,15,254,5,243,154,1,0 ; paddd 0x19af3(%rip),%xmm0 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,254,5,19,253,0,0 ; paddd 0xfd13(%rip),%xmm0 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,72,15,58,22,195,1 ; pextrq $0x1,%xmm0,%rbx
DB 102,72,15,126,197 ; movq %xmm0,%rbp
DB 137,233 ; mov %ebp,%ecx
@@ -24715,7 +24715,7 @@ _sk_clut_4D_sse41 LABEL PROC
DB 15,89,212 ; mulps %xmm4,%xmm2
DB 65,15,88,211 ; addps %xmm11,%xmm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,171,153,1,0 ; movaps 0x199ab(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,203,251,0,0 ; movaps 0xfbcb(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 72,139,76,36,120 ; mov 0x78(%rsp),%rcx
DB 15,40,164,36,192,0,0,0 ; movaps 0xc0(%rsp),%xmm4
DB 15,40,172,36,208,0,0,0 ; movaps 0xd0(%rsp),%xmm5
@@ -24818,13 +24818,13 @@ _sk_seed_shader_sse2 LABEL PROC
DB 102,15,110,194 ; movd %edx,%xmm0
DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,88,5,7,152,1,0 ; addps 0x19807(%rip),%xmm0 # 342b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe7c>
+ DB 15,88,5,39,250,0,0 ; addps 0xfa27(%rip),%xmm0 # 2a4d0 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
DB 102,15,110,201 ; movd %ecx,%xmm1
DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,88,13,4,152,1,0 ; addps 0x19804(%rip),%xmm1 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 15,88,13,36,250,0,0 ; addps 0xfa24(%rip),%xmm1 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,21,11,152,1,0 ; movaps 0x1980b(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,21,43,250,0,0 ; movaps 0xfa2b(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,87,219 ; xorps %xmm3,%xmm3
DB 15,87,228 ; xorps %xmm4,%xmm4
DB 15,87,237 ; xorps %xmm5,%xmm5
@@ -24837,18 +24837,18 @@ _sk_dither_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 102,68,15,110,194 ; movd %edx,%xmm8
DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 102,68,15,254,5,164,151,1,0 ; paddd 0x197a4(%rip),%xmm8 # 34290 <_sk_srcover_rgba_8888_sse2_lowp+0xe5c>
+ DB 102,68,15,254,5,196,249,0,0 ; paddd 0xf9c4(%rip),%xmm8 # 2a4b0 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
DB 102,68,15,110,201 ; movd %ecx,%xmm9
DB 102,69,15,112,201,0 ; pshufd $0x0,%xmm9,%xmm9
DB 102,69,15,239,200 ; pxor %xmm8,%xmm9
- DB 102,68,15,111,21,219,151,1,0 ; movdqa 0x197db(%rip),%xmm10 # 342e0 <_sk_srcover_rgba_8888_sse2_lowp+0xeac>
+ DB 102,68,15,111,21,251,249,0,0 ; movdqa 0xf9fb(%rip),%xmm10 # 2a500 <_sk_srcover_rgba_8888_sse2_lowp+0xa48>
DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
DB 102,69,15,219,218 ; pand %xmm10,%xmm11
DB 102,65,15,114,243,5 ; pslld $0x5,%xmm11
DB 102,69,15,219,208 ; pand %xmm8,%xmm10
DB 102,65,15,114,242,4 ; pslld $0x4,%xmm10
- DB 102,68,15,111,37,199,151,1,0 ; movdqa 0x197c7(%rip),%xmm12 # 342f0 <_sk_srcover_rgba_8888_sse2_lowp+0xebc>
- DB 102,68,15,111,45,206,151,1,0 ; movdqa 0x197ce(%rip),%xmm13 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,68,15,111,37,231,249,0,0 ; movdqa 0xf9e7(%rip),%xmm12 # 2a510 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
+ DB 102,68,15,111,45,238,249,0,0 ; movdqa 0xf9ee(%rip),%xmm13 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,69,15,111,241 ; movdqa %xmm9,%xmm14
DB 102,69,15,219,245 ; pand %xmm13,%xmm14
DB 102,65,15,114,246,2 ; pslld $0x2,%xmm14
@@ -24864,8 +24864,8 @@ _sk_dither_sse2 LABEL PROC
DB 102,69,15,235,198 ; por %xmm14,%xmm8
DB 102,69,15,235,193 ; por %xmm9,%xmm8
DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,137,151,1,0 ; mulps 0x19789(%rip),%xmm8 # 34310 <_sk_srcover_rgba_8888_sse2_lowp+0xedc>
- DB 68,15,88,5,145,151,1,0 ; addps 0x19791(%rip),%xmm8 # 34320 <_sk_srcover_rgba_8888_sse2_lowp+0xeec>
+ DB 68,15,89,5,169,249,0,0 ; mulps 0xf9a9(%rip),%xmm8 # 2a530 <_sk_srcover_rgba_8888_sse2_lowp+0xa78>
+ DB 68,15,88,5,177,249,0,0 ; addps 0xf9b1(%rip),%xmm8 # 2a540 <_sk_srcover_rgba_8888_sse2_lowp+0xa88>
DB 243,68,15,16,16 ; movss (%rax),%xmm10
DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
DB 69,15,89,208 ; mulps %xmm8,%xmm10
@@ -24903,7 +24903,7 @@ _sk_uniform_color_sse2 LABEL PROC
PUBLIC _sk_black_color_sse2
_sk_black_color_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,199,150,1,0 ; movaps 0x196c7(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,231,248,0,0 ; movaps 0xf8e7(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,87,201 ; xorps %xmm1,%xmm1
DB 15,87,210 ; xorps %xmm2,%xmm2
@@ -24912,7 +24912,7 @@ _sk_black_color_sse2 LABEL PROC
PUBLIC _sk_white_color_sse2
_sk_white_color_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,5,179,150,1,0 ; movaps 0x196b3(%rip),%xmm0 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,5,211,248,0,0 ; movaps 0xf8d3(%rip),%xmm0 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,40,216 ; movaps %xmm0,%xmm3
@@ -24950,7 +24950,7 @@ _sk_clear_sse2 LABEL PROC
PUBLIC _sk_srcatop_sse2
_sk_srcatop_sse2 LABEL PROC
DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 68,15,40,5,99,150,1,0 ; movaps 0x19663(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,131,248,0,0 ; movaps 0xf883(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,195 ; subps %xmm3,%xmm8
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 68,15,89,204 ; mulps %xmm4,%xmm9
@@ -24973,7 +24973,7 @@ PUBLIC _sk_dstatop_sse2
_sk_dstatop_sse2 LABEL PROC
DB 68,15,40,195 ; movaps %xmm3,%xmm8
DB 68,15,89,196 ; mulps %xmm4,%xmm8
- DB 68,15,40,13,22,150,1,0 ; movaps 0x19616(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,54,248,0,0 ; movaps 0xf836(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,207 ; subps %xmm7,%xmm9
DB 65,15,89,193 ; mulps %xmm9,%xmm0
DB 65,15,88,192 ; addps %xmm8,%xmm0
@@ -25014,7 +25014,7 @@ _sk_dstin_sse2 LABEL PROC
PUBLIC _sk_srcout_sse2
_sk_srcout_sse2 LABEL PROC
- DB 68,15,40,5,170,149,1,0 ; movaps 0x195aa(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,202,247,0,0 ; movaps 0xf7ca(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,199 ; subps %xmm7,%xmm8
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 65,15,89,200 ; mulps %xmm8,%xmm1
@@ -25025,7 +25025,7 @@ _sk_srcout_sse2 LABEL PROC
PUBLIC _sk_dstout_sse2
_sk_dstout_sse2 LABEL PROC
- DB 68,15,40,5,138,149,1,0 ; movaps 0x1958a(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,170,247,0,0 ; movaps 0xf7aa(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,195 ; subps %xmm3,%xmm8
DB 65,15,40,192 ; movaps %xmm8,%xmm0
DB 15,89,196 ; mulps %xmm4,%xmm0
@@ -25040,7 +25040,7 @@ _sk_dstout_sse2 LABEL PROC
PUBLIC _sk_srcover_sse2
_sk_srcover_sse2 LABEL PROC
- DB 68,15,40,5,93,149,1,0 ; movaps 0x1955d(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,125,247,0,0 ; movaps 0xf77d(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,195 ; subps %xmm3,%xmm8
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 68,15,89,204 ; mulps %xmm4,%xmm9
@@ -25058,7 +25058,7 @@ _sk_srcover_sse2 LABEL PROC
PUBLIC _sk_dstover_sse2
_sk_dstover_sse2 LABEL PROC
- DB 68,15,40,5,33,149,1,0 ; movaps 0x19521(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,65,247,0,0 ; movaps 0xf741(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,199 ; subps %xmm7,%xmm8
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 15,88,196 ; addps %xmm4,%xmm0
@@ -25082,7 +25082,7 @@ _sk_modulate_sse2 LABEL PROC
PUBLIC _sk_multiply_sse2
_sk_multiply_sse2 LABEL PROC
- DB 68,15,40,5,229,148,1,0 ; movaps 0x194e5(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,5,247,0,0 ; movaps 0xf705(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 68,15,92,207 ; subps %xmm7,%xmm9
DB 69,15,40,209 ; movaps %xmm9,%xmm10
@@ -25118,7 +25118,7 @@ _sk_multiply_sse2 LABEL PROC
PUBLIC _sk_plus__sse2
_sk_plus__sse2 LABEL PROC
DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,40,5,102,148,1,0 ; movaps 0x19466(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,134,246,0,0 ; movaps 0xf686(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 65,15,93,192 ; minps %xmm8,%xmm0
DB 15,88,205 ; addps %xmm5,%xmm1
DB 65,15,93,200 ; minps %xmm8,%xmm1
@@ -25156,7 +25156,7 @@ _sk_screen_sse2 LABEL PROC
PUBLIC _sk_xor__sse2
_sk_xor__sse2 LABEL PROC
DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 15,40,29,242,147,1,0 ; movaps 0x193f2(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,18,246,0,0 ; movaps 0xf612(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,40,203 ; movaps %xmm3,%xmm9
DB 68,15,92,207 ; subps %xmm7,%xmm9
DB 65,15,89,193 ; mulps %xmm9,%xmm0
@@ -25202,7 +25202,7 @@ _sk_darken_sse2 LABEL PROC
DB 68,15,89,206 ; mulps %xmm6,%xmm9
DB 65,15,95,209 ; maxps %xmm9,%xmm2
DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,77,147,1,0 ; movaps 0x1934d(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,21,109,245,0,0 ; movaps 0xf56d(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,211 ; subps %xmm3,%xmm2
DB 15,89,215 ; mulps %xmm7,%xmm2
DB 15,88,218 ; addps %xmm2,%xmm3
@@ -25234,7 +25234,7 @@ _sk_lighten_sse2 LABEL PROC
DB 68,15,89,206 ; mulps %xmm6,%xmm9
DB 65,15,93,209 ; minps %xmm9,%xmm2
DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,226,146,1,0 ; movaps 0x192e2(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,21,2,245,0,0 ; movaps 0xf502(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,211 ; subps %xmm3,%xmm2
DB 15,89,215 ; mulps %xmm7,%xmm2
DB 15,88,218 ; addps %xmm2,%xmm3
@@ -25269,7 +25269,7 @@ _sk_difference_sse2 LABEL PROC
DB 65,15,93,209 ; minps %xmm9,%xmm2
DB 15,88,210 ; addps %xmm2,%xmm2
DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,108,146,1,0 ; movaps 0x1926c(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,21,140,244,0,0 ; movaps 0xf48c(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,211 ; subps %xmm3,%xmm2
DB 15,89,215 ; mulps %xmm7,%xmm2
DB 15,88,218 ; addps %xmm2,%xmm3
@@ -25295,7 +25295,7 @@ _sk_exclusion_sse2 LABEL PROC
DB 15,89,214 ; mulps %xmm6,%xmm2
DB 15,88,210 ; addps %xmm2,%xmm2
DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,28,146,1,0 ; movaps 0x1921c(%rip),%xmm2 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,21,60,244,0,0 ; movaps 0xf43c(%rip),%xmm2 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,211 ; subps %xmm3,%xmm2
DB 15,89,215 ; mulps %xmm7,%xmm2
DB 15,88,218 ; addps %xmm2,%xmm3
@@ -25306,7 +25306,7 @@ _sk_exclusion_sse2 LABEL PROC
PUBLIC _sk_colorburn_sse2
_sk_colorburn_sse2 LABEL PROC
DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 68,15,40,13,255,145,1,0 ; movaps 0x191ff(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,31,244,0,0 ; movaps 0xf41f(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,209 ; movaps %xmm9,%xmm10
DB 68,15,92,215 ; subps %xmm7,%xmm10
DB 69,15,40,218 ; movaps %xmm10,%xmm11
@@ -25399,7 +25399,7 @@ _sk_colorburn_sse2 LABEL PROC
PUBLIC _sk_colordodge_sse2
_sk_colordodge_sse2 LABEL PROC
DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 68,15,40,21,167,144,1,0 ; movaps 0x190a7(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,21,199,242,0,0 ; movaps 0xf2c7(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,218 ; movaps %xmm10,%xmm11
DB 68,15,92,223 ; subps %xmm7,%xmm11
DB 65,15,40,195 ; movaps %xmm11,%xmm0
@@ -25490,7 +25490,7 @@ _sk_hardlight_sse2 LABEL PROC
DB 15,41,52,36 ; movaps %xmm6,(%rsp)
DB 15,40,245 ; movaps %xmm5,%xmm6
DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 68,15,40,29,77,143,1,0 ; movaps 0x18f4d(%rip),%xmm11 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,29,109,241,0,0 ; movaps 0xf16d(%rip),%xmm11 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,211 ; movaps %xmm11,%xmm10
DB 68,15,92,215 ; subps %xmm7,%xmm10
DB 69,15,40,194 ; movaps %xmm10,%xmm8
@@ -25577,7 +25577,7 @@ PUBLIC _sk_overlay_sse2
_sk_overlay_sse2 LABEL PROC
DB 68,15,40,193 ; movaps %xmm1,%xmm8
DB 68,15,40,232 ; movaps %xmm0,%xmm13
- DB 68,15,40,13,8,142,1,0 ; movaps 0x18e08(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,40,240,0,0 ; movaps 0xf028(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,209 ; movaps %xmm9,%xmm10
DB 68,15,92,215 ; subps %xmm7,%xmm10
DB 69,15,40,218 ; movaps %xmm10,%xmm11
@@ -25667,7 +25667,7 @@ _sk_softlight_sse2 LABEL PROC
DB 68,15,40,213 ; movaps %xmm5,%xmm10
DB 68,15,94,215 ; divps %xmm7,%xmm10
DB 69,15,84,212 ; andps %xmm12,%xmm10
- DB 68,15,40,13,178,140,1,0 ; movaps 0x18cb2(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,210,238,0,0 ; movaps 0xeed2(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,249 ; movaps %xmm9,%xmm15
DB 69,15,92,250 ; subps %xmm10,%xmm15
DB 69,15,40,218 ; movaps %xmm10,%xmm11
@@ -25680,10 +25680,10 @@ _sk_softlight_sse2 LABEL PROC
DB 65,15,40,194 ; movaps %xmm10,%xmm0
DB 15,89,192 ; mulps %xmm0,%xmm0
DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 68,15,40,53,220,140,1,0 ; movaps 0x18cdc(%rip),%xmm14 # 34330 <_sk_srcover_rgba_8888_sse2_lowp+0xefc>
+ DB 68,15,40,53,252,238,0,0 ; movaps 0xeefc(%rip),%xmm14 # 2a550 <_sk_srcover_rgba_8888_sse2_lowp+0xa98>
DB 69,15,88,222 ; addps %xmm14,%xmm11
DB 68,15,89,216 ; mulps %xmm0,%xmm11
- DB 68,15,40,21,220,140,1,0 ; movaps 0x18cdc(%rip),%xmm10 # 34340 <_sk_srcover_rgba_8888_sse2_lowp+0xf0c>
+ DB 68,15,40,21,252,238,0,0 ; movaps 0xeefc(%rip),%xmm10 # 2a560 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
DB 69,15,89,234 ; mulps %xmm10,%xmm13
DB 69,15,88,235 ; addps %xmm11,%xmm13
DB 15,88,228 ; addps %xmm4,%xmm4
@@ -25828,7 +25828,7 @@ _sk_hue_sse2 LABEL PROC
DB 68,15,40,209 ; movaps %xmm1,%xmm10
DB 68,15,40,225 ; movaps %xmm1,%xmm12
DB 68,15,89,211 ; mulps %xmm3,%xmm10
- DB 68,15,40,5,104,138,1,0 ; movaps 0x18a68(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,136,236,0,0 ; movaps 0xec88(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,216 ; movaps %xmm8,%xmm11
DB 15,40,207 ; movaps %xmm7,%xmm1
DB 68,15,92,217 ; subps %xmm1,%xmm11
@@ -25876,12 +25876,12 @@ _sk_hue_sse2 LABEL PROC
DB 69,15,84,206 ; andps %xmm14,%xmm9
DB 69,15,84,214 ; andps %xmm14,%xmm10
DB 65,15,84,214 ; andps %xmm14,%xmm2
- DB 68,15,40,61,37,138,1,0 ; movaps 0x18a25(%rip),%xmm15 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 68,15,40,61,69,236,0,0 ; movaps 0xec45(%rip),%xmm15 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 65,15,89,231 ; mulps %xmm15,%xmm4
- DB 15,40,5,42,138,1,0 ; movaps 0x18a2a(%rip),%xmm0 # 34360 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ DB 15,40,5,74,236,0,0 ; movaps 0xec4a(%rip),%xmm0 # 2a580 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
DB 15,89,240 ; mulps %xmm0,%xmm6
DB 15,88,244 ; addps %xmm4,%xmm6
- DB 68,15,40,53,44,138,1,0 ; movaps 0x18a2c(%rip),%xmm14 # 34370 <_sk_srcover_rgba_8888_sse2_lowp+0xf3c>
+ DB 68,15,40,53,76,236,0,0 ; movaps 0xec4c(%rip),%xmm14 # 2a590 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
DB 68,15,40,239 ; movaps %xmm7,%xmm13
DB 69,15,89,238 ; mulps %xmm14,%xmm13
DB 68,15,88,238 ; addps %xmm6,%xmm13
@@ -26059,14 +26059,14 @@ _sk_saturation_sse2 LABEL PROC
DB 68,15,84,211 ; andps %xmm3,%xmm10
DB 68,15,84,203 ; andps %xmm3,%xmm9
DB 15,84,195 ; andps %xmm3,%xmm0
- DB 68,15,40,5,121,135,1,0 ; movaps 0x18779(%rip),%xmm8 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 68,15,40,5,153,233,0,0 ; movaps 0xe999(%rip),%xmm8 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 15,40,214 ; movaps %xmm6,%xmm2
DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,40,13,123,135,1,0 ; movaps 0x1877b(%rip),%xmm1 # 34360 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ DB 15,40,13,155,233,0,0 ; movaps 0xe99b(%rip),%xmm1 # 2a580 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
DB 15,40,221 ; movaps %xmm5,%xmm3
DB 15,89,217 ; mulps %xmm1,%xmm3
DB 15,88,218 ; addps %xmm2,%xmm3
- DB 68,15,40,37,122,135,1,0 ; movaps 0x1877a(%rip),%xmm12 # 34370 <_sk_srcover_rgba_8888_sse2_lowp+0xf3c>
+ DB 68,15,40,37,154,233,0,0 ; movaps 0xe99a(%rip),%xmm12 # 2a590 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
DB 69,15,89,236 ; mulps %xmm12,%xmm13
DB 68,15,88,235 ; addps %xmm3,%xmm13
DB 65,15,40,210 ; movaps %xmm10,%xmm2
@@ -26111,7 +26111,7 @@ _sk_saturation_sse2 LABEL PROC
DB 15,40,223 ; movaps %xmm7,%xmm3
DB 15,40,236 ; movaps %xmm4,%xmm5
DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 68,15,40,5,47,134,1,0 ; movaps 0x1862f(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,79,232,0,0 ; movaps 0xe84f(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 65,15,40,224 ; movaps %xmm8,%xmm4
DB 68,15,92,199 ; subps %xmm7,%xmm8
DB 15,88,253 ; addps %xmm5,%xmm7
@@ -26212,14 +26212,14 @@ _sk_color_sse2 LABEL PROC
DB 68,15,40,213 ; movaps %xmm5,%xmm10
DB 69,15,89,208 ; mulps %xmm8,%xmm10
DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 68,15,40,45,55,133,1,0 ; movaps 0x18537(%rip),%xmm13 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 68,15,40,45,87,231,0,0 ; movaps 0xe757(%rip),%xmm13 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 68,15,40,198 ; movaps %xmm6,%xmm8
DB 69,15,89,197 ; mulps %xmm13,%xmm8
- DB 68,15,40,53,55,133,1,0 ; movaps 0x18537(%rip),%xmm14 # 34360 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ DB 68,15,40,53,87,231,0,0 ; movaps 0xe757(%rip),%xmm14 # 2a580 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
DB 65,15,40,195 ; movaps %xmm11,%xmm0
DB 65,15,89,198 ; mulps %xmm14,%xmm0
DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,29,51,133,1,0 ; movaps 0x18533(%rip),%xmm11 # 34370 <_sk_srcover_rgba_8888_sse2_lowp+0xf3c>
+ DB 68,15,40,29,83,231,0,0 ; movaps 0xe753(%rip),%xmm11 # 2a590 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
DB 69,15,89,227 ; mulps %xmm11,%xmm12
DB 68,15,88,224 ; addps %xmm0,%xmm12
DB 65,15,40,193 ; movaps %xmm9,%xmm0
@@ -26227,7 +26227,7 @@ _sk_color_sse2 LABEL PROC
DB 69,15,40,250 ; movaps %xmm10,%xmm15
DB 69,15,89,254 ; mulps %xmm14,%xmm15
DB 68,15,88,248 ; addps %xmm0,%xmm15
- DB 68,15,40,5,111,132,1,0 ; movaps 0x1846f(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,143,230,0,0 ; movaps 0xe68f(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 65,15,40,224 ; movaps %xmm8,%xmm4
DB 15,92,226 ; subps %xmm2,%xmm4
DB 15,89,252 ; mulps %xmm4,%xmm7
@@ -26363,15 +26363,15 @@ _sk_luminosity_sse2 LABEL PROC
DB 68,15,40,205 ; movaps %xmm5,%xmm9
DB 68,15,89,204 ; mulps %xmm4,%xmm9
DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 68,15,40,37,241,130,1,0 ; movaps 0x182f1(%rip),%xmm12 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 68,15,40,37,17,229,0,0 ; movaps 0xe511(%rip),%xmm12 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 68,15,40,199 ; movaps %xmm7,%xmm8
DB 69,15,89,196 ; mulps %xmm12,%xmm8
- DB 68,15,40,45,241,130,1,0 ; movaps 0x182f1(%rip),%xmm13 # 34360 <_sk_srcover_rgba_8888_sse2_lowp+0xf2c>
+ DB 68,15,40,45,17,229,0,0 ; movaps 0xe511(%rip),%xmm13 # 2a580 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
DB 68,15,40,241 ; movaps %xmm1,%xmm14
DB 69,15,89,245 ; mulps %xmm13,%xmm14
DB 69,15,88,240 ; addps %xmm8,%xmm14
- DB 68,15,40,29,237,130,1,0 ; movaps 0x182ed(%rip),%xmm11 # 34370 <_sk_srcover_rgba_8888_sse2_lowp+0xf3c>
- DB 68,15,40,5,69,130,1,0 ; movaps 0x18245(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,29,13,229,0,0 ; movaps 0xe50d(%rip),%xmm11 # 2a590 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
+ DB 68,15,40,5,101,228,0,0 ; movaps 0xe465(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,248 ; movaps %xmm8,%xmm15
DB 65,15,40,194 ; movaps %xmm10,%xmm0
DB 68,15,92,248 ; subps %xmm0,%xmm15
@@ -26514,7 +26514,7 @@ _sk_srcover_rgba_8888_sse2 LABEL PROC
DB 15,133,228,0,0,0 ; jne 1c378 <_sk_srcover_rgba_8888_sse2+0x104>
DB 243,69,15,111,4,128 ; movdqu (%r8,%rax,4),%xmm8
DB 72,133,255 ; test %rdi,%rdi
- DB 102,15,111,53,219,128,1,0 ; movdqa 0x180db(%rip),%xmm6 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,53,251,226,0,0 ; movdqa 0xe2fb(%rip),%xmm6 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,65,15,111,224 ; movdqa %xmm8,%xmm4
DB 102,15,219,230 ; pand %xmm6,%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
@@ -26528,9 +26528,9 @@ _sk_srcover_rgba_8888_sse2 LABEL PROC
DB 15,91,247 ; cvtdq2ps %xmm7,%xmm6
DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
DB 65,15,91,248 ; cvtdq2ps %xmm8,%xmm7
- DB 68,15,40,5,235,127,1,0 ; movaps 0x17feb(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,11,226,0,0 ; movaps 0xe20b(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 68,15,40,37,191,128,1,0 ; movaps 0x180bf(%rip),%xmm12 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,40,37,223,226,0,0 ; movaps 0xe2df(%rip),%xmm12 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 65,15,89,196 ; mulps %xmm12,%xmm0
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 68,15,89,204 ; mulps %xmm4,%xmm9
@@ -26606,7 +26606,7 @@ _sk_clamp_0_sse2 LABEL PROC
PUBLIC _sk_clamp_1_sse2
_sk_clamp_1_sse2 LABEL PROC
- DB 68,15,40,5,187,126,1,0 ; movaps 0x17ebb(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,219,224,0,0 ; movaps 0xe0db(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 65,15,93,192 ; minps %xmm8,%xmm0
DB 65,15,93,200 ; minps %xmm8,%xmm1
DB 65,15,93,208 ; minps %xmm8,%xmm2
@@ -26616,7 +26616,7 @@ _sk_clamp_1_sse2 LABEL PROC
PUBLIC _sk_clamp_a_sse2
_sk_clamp_a_sse2 LABEL PROC
- DB 15,93,29,160,126,1,0 ; minps 0x17ea0(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,93,29,192,224,0,0 ; minps 0xe0c0(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,93,195 ; minps %xmm3,%xmm0
DB 15,93,203 ; minps %xmm3,%xmm1
DB 15,93,211 ; minps %xmm3,%xmm2
@@ -26625,7 +26625,7 @@ _sk_clamp_a_sse2 LABEL PROC
PUBLIC _sk_clamp_a_dst_sse2
_sk_clamp_a_dst_sse2 LABEL PROC
- DB 15,93,61,140,126,1,0 ; minps 0x17e8c(%rip),%xmm7 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,93,61,172,224,0,0 ; minps 0xe0ac(%rip),%xmm7 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,93,231 ; minps %xmm7,%xmm4
DB 15,93,239 ; minps %xmm7,%xmm5
DB 15,93,247 ; minps %xmm7,%xmm6
@@ -26654,7 +26654,7 @@ _sk_swap_rb_sse2 LABEL PROC
PUBLIC _sk_invert_sse2
_sk_invert_sse2 LABEL PROC
- DB 68,15,40,5,72,126,1,0 ; movaps 0x17e48(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,5,104,224,0,0 ; movaps 0xe068(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 68,15,92,200 ; subps %xmm0,%xmm9
DB 69,15,40,208 ; movaps %xmm8,%xmm10
@@ -26706,7 +26706,7 @@ _sk_premul_dst_sse2 LABEL PROC
PUBLIC _sk_unpremul_sse2
_sk_unpremul_sse2 LABEL PROC
DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,40,13,210,125,1,0 ; movaps 0x17dd2(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,242,223,0,0 ; movaps 0xdff2(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,94,203 ; divps %xmm3,%xmm9
DB 68,15,194,195,4 ; cmpneqps %xmm3,%xmm8
DB 69,15,84,193 ; andps %xmm9,%xmm8
@@ -26718,20 +26718,20 @@ _sk_unpremul_sse2 LABEL PROC
PUBLIC _sk_from_srgb_sse2
_sk_from_srgb_sse2 LABEL PROC
- DB 68,15,40,5,157,126,1,0 ; movaps 0x17e9d(%rip),%xmm8 # 343c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf8c>
+ DB 68,15,40,5,189,224,0,0 ; movaps 0xe0bd(%rip),%xmm8 # 2a5e0 <_sk_srcover_rgba_8888_sse2_lowp+0xb28>
DB 68,15,40,232 ; movaps %xmm0,%xmm13
DB 69,15,89,232 ; mulps %xmm8,%xmm13
DB 68,15,40,216 ; movaps %xmm0,%xmm11
DB 69,15,89,219 ; mulps %xmm11,%xmm11
- DB 68,15,40,13,21,126,1,0 ; movaps 0x17e15(%rip),%xmm9 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 68,15,40,13,53,224,0,0 ; movaps 0xe035(%rip),%xmm9 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 68,15,40,240 ; movaps %xmm0,%xmm14
DB 69,15,89,241 ; mulps %xmm9,%xmm14
- DB 68,15,40,21,133,126,1,0 ; movaps 0x17e85(%rip),%xmm10 # 343d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf9c>
+ DB 68,15,40,21,165,224,0,0 ; movaps 0xe0a5(%rip),%xmm10 # 2a5f0 <_sk_srcover_rgba_8888_sse2_lowp+0xb38>
DB 69,15,88,242 ; addps %xmm10,%xmm14
DB 69,15,89,243 ; mulps %xmm11,%xmm14
- DB 68,15,40,29,133,126,1,0 ; movaps 0x17e85(%rip),%xmm11 # 343e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfac>
+ DB 68,15,40,29,165,224,0,0 ; movaps 0xe0a5(%rip),%xmm11 # 2a600 <_sk_srcover_rgba_8888_sse2_lowp+0xb48>
DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 68,15,40,37,137,126,1,0 ; movaps 0x17e89(%rip),%xmm12 # 343f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfbc>
+ DB 68,15,40,37,169,224,0,0 ; movaps 0xe0a9(%rip),%xmm12 # 2a610 <_sk_srcover_rgba_8888_sse2_lowp+0xb58>
DB 65,15,194,196,1 ; cmpltps %xmm12,%xmm0
DB 68,15,84,232 ; andps %xmm0,%xmm13
DB 65,15,85,198 ; andnps %xmm14,%xmm0
@@ -26765,20 +26765,20 @@ _sk_from_srgb_sse2 LABEL PROC
PUBLIC _sk_from_srgb_dst_sse2
_sk_from_srgb_dst_sse2 LABEL PROC
- DB 68,15,40,5,218,125,1,0 ; movaps 0x17dda(%rip),%xmm8 # 343c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf8c>
+ DB 68,15,40,5,250,223,0,0 ; movaps 0xdffa(%rip),%xmm8 # 2a5e0 <_sk_srcover_rgba_8888_sse2_lowp+0xb28>
DB 68,15,40,236 ; movaps %xmm4,%xmm13
DB 69,15,89,232 ; mulps %xmm8,%xmm13
DB 68,15,40,220 ; movaps %xmm4,%xmm11
DB 69,15,89,219 ; mulps %xmm11,%xmm11
- DB 68,15,40,13,82,125,1,0 ; movaps 0x17d52(%rip),%xmm9 # 34350 <_sk_srcover_rgba_8888_sse2_lowp+0xf1c>
+ DB 68,15,40,13,114,223,0,0 ; movaps 0xdf72(%rip),%xmm9 # 2a570 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
DB 68,15,40,244 ; movaps %xmm4,%xmm14
DB 69,15,89,241 ; mulps %xmm9,%xmm14
- DB 68,15,40,21,194,125,1,0 ; movaps 0x17dc2(%rip),%xmm10 # 343d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf9c>
+ DB 68,15,40,21,226,223,0,0 ; movaps 0xdfe2(%rip),%xmm10 # 2a5f0 <_sk_srcover_rgba_8888_sse2_lowp+0xb38>
DB 69,15,88,242 ; addps %xmm10,%xmm14
DB 69,15,89,243 ; mulps %xmm11,%xmm14
- DB 68,15,40,29,194,125,1,0 ; movaps 0x17dc2(%rip),%xmm11 # 343e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfac>
+ DB 68,15,40,29,226,223,0,0 ; movaps 0xdfe2(%rip),%xmm11 # 2a600 <_sk_srcover_rgba_8888_sse2_lowp+0xb48>
DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 68,15,40,37,198,125,1,0 ; movaps 0x17dc6(%rip),%xmm12 # 343f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfbc>
+ DB 68,15,40,37,230,223,0,0 ; movaps 0xdfe6(%rip),%xmm12 # 2a610 <_sk_srcover_rgba_8888_sse2_lowp+0xb58>
DB 65,15,194,228,1 ; cmpltps %xmm12,%xmm4
DB 68,15,84,236 ; andps %xmm4,%xmm13
DB 65,15,85,230 ; andnps %xmm14,%xmm4
@@ -26813,22 +26813,22 @@ _sk_from_srgb_dst_sse2 LABEL PROC
PUBLIC _sk_to_srgb_sse2
_sk_to_srgb_sse2 LABEL PROC
DB 68,15,82,232 ; rsqrtps %xmm0,%xmm13
- DB 68,15,40,5,83,125,1,0 ; movaps 0x17d53(%rip),%xmm8 # 34400 <_sk_srcover_rgba_8888_sse2_lowp+0xfcc>
+ DB 68,15,40,5,115,223,0,0 ; movaps 0xdf73(%rip),%xmm8 # 2a620 <_sk_srcover_rgba_8888_sse2_lowp+0xb68>
DB 68,15,40,240 ; movaps %xmm0,%xmm14
DB 69,15,89,240 ; mulps %xmm8,%xmm14
- DB 68,15,40,13,83,125,1,0 ; movaps 0x17d53(%rip),%xmm9 # 34410 <_sk_srcover_rgba_8888_sse2_lowp+0xfdc>
+ DB 68,15,40,13,115,223,0,0 ; movaps 0xdf73(%rip),%xmm9 # 2a630 <_sk_srcover_rgba_8888_sse2_lowp+0xb78>
DB 69,15,40,253 ; movaps %xmm13,%xmm15
DB 69,15,89,249 ; mulps %xmm9,%xmm15
- DB 68,15,40,21,83,125,1,0 ; movaps 0x17d53(%rip),%xmm10 # 34420 <_sk_srcover_rgba_8888_sse2_lowp+0xfec>
+ DB 68,15,40,21,115,223,0,0 ; movaps 0xdf73(%rip),%xmm10 # 2a640 <_sk_srcover_rgba_8888_sse2_lowp+0xb88>
DB 69,15,88,250 ; addps %xmm10,%xmm15
DB 69,15,89,253 ; mulps %xmm13,%xmm15
- DB 68,15,40,29,83,125,1,0 ; movaps 0x17d53(%rip),%xmm11 # 34430 <_sk_srcover_rgba_8888_sse2_lowp+0xffc>
+ DB 68,15,40,29,115,223,0,0 ; movaps 0xdf73(%rip),%xmm11 # 2a650 <_sk_srcover_rgba_8888_sse2_lowp+0xb98>
DB 69,15,88,251 ; addps %xmm11,%xmm15
- DB 68,15,40,37,87,125,1,0 ; movaps 0x17d57(%rip),%xmm12 # 34440 <_sk_srcover_rgba_8888_sse2_lowp+0x100c>
+ DB 68,15,40,37,119,223,0,0 ; movaps 0xdf77(%rip),%xmm12 # 2a660 <_sk_srcover_rgba_8888_sse2_lowp+0xba8>
DB 69,15,88,236 ; addps %xmm12,%xmm13
DB 69,15,83,237 ; rcpps %xmm13,%xmm13
DB 69,15,89,239 ; mulps %xmm15,%xmm13
- DB 68,15,40,61,83,125,1,0 ; movaps 0x17d53(%rip),%xmm15 # 34450 <_sk_srcover_rgba_8888_sse2_lowp+0x101c>
+ DB 68,15,40,61,115,223,0,0 ; movaps 0xdf73(%rip),%xmm15 # 2a670 <_sk_srcover_rgba_8888_sse2_lowp+0xbb8>
DB 65,15,194,199,1 ; cmpltps %xmm15,%xmm0
DB 68,15,84,240 ; andps %xmm0,%xmm14
DB 65,15,85,197 ; andnps %xmm13,%xmm0
@@ -26878,7 +26878,7 @@ _sk_rgb_to_hsl_sse2 LABEL PROC
DB 68,15,93,216 ; minps %xmm0,%xmm11
DB 65,15,40,202 ; movaps %xmm10,%xmm1
DB 65,15,92,203 ; subps %xmm11,%xmm1
- DB 68,15,40,45,22,123,1,0 ; movaps 0x17b16(%rip),%xmm13 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,45,54,221,0,0 ; movaps 0xdd36(%rip),%xmm13 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 68,15,94,233 ; divps %xmm1,%xmm13
DB 65,15,40,194 ; movaps %xmm10,%xmm0
DB 65,15,194,192,0 ; cmpeqps %xmm8,%xmm0
@@ -26887,30 +26887,30 @@ _sk_rgb_to_hsl_sse2 LABEL PROC
DB 69,15,89,229 ; mulps %xmm13,%xmm12
DB 69,15,40,241 ; movaps %xmm9,%xmm14
DB 68,15,194,242,1 ; cmpltps %xmm2,%xmm14
- DB 68,15,84,53,124,124,1,0 ; andps 0x17c7c(%rip),%xmm14 # 34460 <_sk_srcover_rgba_8888_sse2_lowp+0x102c>
+ DB 68,15,84,53,156,222,0,0 ; andps 0xde9c(%rip),%xmm14 # 2a680 <_sk_srcover_rgba_8888_sse2_lowp+0xbc8>
DB 69,15,88,244 ; addps %xmm12,%xmm14
DB 69,15,40,250 ; movaps %xmm10,%xmm15
DB 69,15,194,249,0 ; cmpeqps %xmm9,%xmm15
DB 65,15,92,208 ; subps %xmm8,%xmm2
DB 65,15,89,213 ; mulps %xmm13,%xmm2
- DB 68,15,40,37,111,124,1,0 ; movaps 0x17c6f(%rip),%xmm12 # 34470 <_sk_srcover_rgba_8888_sse2_lowp+0x103c>
+ DB 68,15,40,37,143,222,0,0 ; movaps 0xde8f(%rip),%xmm12 # 2a690 <_sk_srcover_rgba_8888_sse2_lowp+0xbd8>
DB 65,15,88,212 ; addps %xmm12,%xmm2
DB 69,15,92,193 ; subps %xmm9,%xmm8
DB 69,15,89,197 ; mulps %xmm13,%xmm8
- DB 68,15,88,5,107,124,1,0 ; addps 0x17c6b(%rip),%xmm8 # 34480 <_sk_srcover_rgba_8888_sse2_lowp+0x104c>
+ DB 68,15,88,5,139,222,0,0 ; addps 0xde8b(%rip),%xmm8 # 2a6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe8>
DB 65,15,84,215 ; andps %xmm15,%xmm2
DB 69,15,85,248 ; andnps %xmm8,%xmm15
DB 68,15,86,250 ; orps %xmm2,%xmm15
DB 68,15,84,240 ; andps %xmm0,%xmm14
DB 65,15,85,199 ; andnps %xmm15,%xmm0
DB 65,15,86,198 ; orps %xmm14,%xmm0
- DB 15,89,5,92,124,1,0 ; mulps 0x17c5c(%rip),%xmm0 # 34490 <_sk_srcover_rgba_8888_sse2_lowp+0x105c>
+ DB 15,89,5,124,222,0,0 ; mulps 0xde7c(%rip),%xmm0 # 2a6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf8>
DB 69,15,40,194 ; movaps %xmm10,%xmm8
DB 69,15,194,195,4 ; cmpneqps %xmm11,%xmm8
DB 65,15,84,192 ; andps %xmm8,%xmm0
DB 69,15,92,226 ; subps %xmm10,%xmm12
DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 68,15,40,13,111,122,1,0 ; movaps 0x17a6f(%rip),%xmm9 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,13,143,220,0,0 ; movaps 0xdc8f(%rip),%xmm9 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 65,15,40,210 ; movaps %xmm10,%xmm2
DB 65,15,89,209 ; mulps %xmm9,%xmm2
DB 68,15,194,202,1 ; cmpltps %xmm2,%xmm9
@@ -26933,7 +26933,7 @@ _sk_hsl_to_rgb_sse2 LABEL PROC
DB 15,41,92,36,32 ; movaps %xmm3,0x20(%rsp)
DB 68,15,40,218 ; movaps %xmm2,%xmm11
DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 68,15,40,13,26,122,1,0 ; movaps 0x17a1a(%rip),%xmm9 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,13,58,220,0,0 ; movaps 0xdc3a(%rip),%xmm9 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 69,15,40,209 ; movaps %xmm9,%xmm10
DB 69,15,194,211,2 ; cmpleps %xmm11,%xmm10
DB 15,40,193 ; movaps %xmm1,%xmm0
@@ -26950,28 +26950,28 @@ _sk_hsl_to_rgb_sse2 LABEL PROC
DB 69,15,88,211 ; addps %xmm11,%xmm10
DB 69,15,88,219 ; addps %xmm11,%xmm11
DB 69,15,92,218 ; subps %xmm10,%xmm11
- DB 15,40,5,180,123,1,0 ; movaps 0x17bb4(%rip),%xmm0 # 344a0 <_sk_srcover_rgba_8888_sse2_lowp+0x106c>
+ DB 15,40,5,212,221,0,0 ; movaps 0xddd4(%rip),%xmm0 # 2a6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc08>
DB 15,88,198 ; addps %xmm6,%xmm0
DB 243,15,91,200 ; cvttps2dq %xmm0,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
DB 15,40,216 ; movaps %xmm0,%xmm3
DB 15,194,217,1 ; cmpltps %xmm1,%xmm3
- DB 15,84,29,204,121,1,0 ; andps 0x179cc(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,84,29,236,219,0,0 ; andps 0xdbec(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,203 ; subps %xmm3,%xmm1
DB 15,92,193 ; subps %xmm1,%xmm0
- DB 68,15,40,45,158,123,1,0 ; movaps 0x17b9e(%rip),%xmm13 # 344b0 <_sk_srcover_rgba_8888_sse2_lowp+0x107c>
+ DB 68,15,40,45,190,221,0,0 ; movaps 0xddbe(%rip),%xmm13 # 2a6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc18>
DB 69,15,40,197 ; movaps %xmm13,%xmm8
DB 68,15,194,192,2 ; cmpleps %xmm0,%xmm8
DB 69,15,40,242 ; movaps %xmm10,%xmm14
DB 69,15,92,243 ; subps %xmm11,%xmm14
DB 65,15,40,217 ; movaps %xmm9,%xmm3
DB 15,194,216,2 ; cmpleps %xmm0,%xmm3
- DB 15,40,21,94,123,1,0 ; movaps 0x17b5e(%rip),%xmm2 # 34490 <_sk_srcover_rgba_8888_sse2_lowp+0x105c>
+ DB 15,40,21,126,221,0,0 ; movaps 0xdd7e(%rip),%xmm2 # 2a6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xbf8>
DB 68,15,40,250 ; movaps %xmm2,%xmm15
DB 68,15,194,248,2 ; cmpleps %xmm0,%xmm15
- DB 15,40,13,30,123,1,0 ; movaps 0x17b1e(%rip),%xmm1 # 34460 <_sk_srcover_rgba_8888_sse2_lowp+0x102c>
+ DB 15,40,13,62,221,0,0 ; movaps 0xdd3e(%rip),%xmm1 # 2a680 <_sk_srcover_rgba_8888_sse2_lowp+0xbc8>
DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,45,52,123,1,0 ; movaps 0x17b34(%rip),%xmm5 # 34480 <_sk_srcover_rgba_8888_sse2_lowp+0x104c>
+ DB 15,40,45,84,221,0,0 ; movaps 0xdd54(%rip),%xmm5 # 2a6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xbe8>
DB 15,40,229 ; movaps %xmm5,%xmm4
DB 15,92,224 ; subps %xmm0,%xmm4
DB 65,15,89,230 ; mulps %xmm14,%xmm4
@@ -26994,7 +26994,7 @@ _sk_hsl_to_rgb_sse2 LABEL PROC
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
DB 15,40,222 ; movaps %xmm6,%xmm3
DB 15,194,216,1 ; cmpltps %xmm0,%xmm3
- DB 15,84,29,41,121,1,0 ; andps 0x17929(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,84,29,73,219,0,0 ; andps 0xdb49(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,195 ; subps %xmm3,%xmm0
DB 68,15,40,230 ; movaps %xmm6,%xmm12
DB 68,15,92,224 ; subps %xmm0,%xmm12
@@ -27024,12 +27024,12 @@ _sk_hsl_to_rgb_sse2 LABEL PROC
DB 15,40,60,36 ; movaps (%rsp),%xmm7
DB 15,40,231 ; movaps %xmm7,%xmm4
DB 15,85,227 ; andnps %xmm3,%xmm4
- DB 15,88,53,162,122,1,0 ; addps 0x17aa2(%rip),%xmm6 # 344c0 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ DB 15,88,53,194,220,0,0 ; addps 0xdcc2(%rip),%xmm6 # 2a6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
DB 243,15,91,198 ; cvttps2dq %xmm6,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
DB 15,40,222 ; movaps %xmm6,%xmm3
DB 15,194,216,1 ; cmpltps %xmm0,%xmm3
- DB 15,84,29,157,120,1,0 ; andps 0x1789d(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,84,29,189,218,0,0 ; andps 0xdabd(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,92,195 ; subps %xmm3,%xmm0
DB 15,92,240 ; subps %xmm0,%xmm6
DB 15,89,206 ; mulps %xmm6,%xmm1
@@ -27094,9 +27094,9 @@ _sk_scale_u8_sse2 LABEL PROC
DB 102,71,15,110,4,16 ; movd (%r8,%r10,1),%xmm8
DB 102,68,15,96,192 ; punpcklbw %xmm0,%xmm8
DB 102,68,15,97,192 ; punpcklwd %xmm0,%xmm8
- DB 102,68,15,219,5,108,120,1,0 ; pand 0x1786c(%rip),%xmm8 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,68,15,219,5,140,218,0,0 ; pand 0xda8c(%rip),%xmm8 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,176,121,1,0 ; mulps 0x179b0(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,89,5,208,219,0,0 ; mulps 0xdbd0(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 65,15,89,200 ; mulps %xmm8,%xmm1
DB 65,15,89,208 ; mulps %xmm8,%xmm2
@@ -27139,17 +27139,17 @@ _sk_scale_565_sse2 LABEL PROC
DB 15,133,173,0,0,0 ; jne 1cc5d <_sk_scale_565_sse2+0xcc>
DB 243,71,15,126,20,80 ; movq (%r8,%r10,2),%xmm10
DB 102,68,15,97,208 ; punpcklwd %xmm0,%xmm10
- DB 102,68,15,111,5,28,121,1,0 ; movdqa 0x1791c(%rip),%xmm8 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
+ DB 102,68,15,111,5,60,219,0,0 ; movdqa 0xdb3c(%rip),%xmm8 # 2a700 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
DB 102,69,15,219,194 ; pand %xmm10,%xmm8
DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,27,121,1,0 ; mulps 0x1791b(%rip),%xmm8 # 344f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
- DB 102,68,15,111,13,34,121,1,0 ; movdqa 0x17922(%rip),%xmm9 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
+ DB 68,15,89,5,59,219,0,0 ; mulps 0xdb3b(%rip),%xmm8 # 2a710 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ DB 102,68,15,111,13,66,219,0,0 ; movdqa 0xdb42(%rip),%xmm9 # 2a720 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
DB 102,69,15,219,202 ; pand %xmm10,%xmm9
DB 69,15,91,201 ; cvtdq2ps %xmm9,%xmm9
- DB 68,15,89,13,33,121,1,0 ; mulps 0x17921(%rip),%xmm9 # 34510 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
- DB 102,68,15,219,21,40,121,1,0 ; pand 0x17928(%rip),%xmm10 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
+ DB 68,15,89,13,65,219,0,0 ; mulps 0xdb41(%rip),%xmm9 # 2a730 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 102,68,15,219,21,72,219,0,0 ; pand 0xdb48(%rip),%xmm10 # 2a740 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
DB 69,15,91,210 ; cvtdq2ps %xmm10,%xmm10
- DB 68,15,89,21,44,121,1,0 ; mulps 0x1792c(%rip),%xmm10 # 34530 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
+ DB 68,15,89,21,76,219,0,0 ; mulps 0xdb4c(%rip),%xmm10 # 2a750 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
DB 68,15,40,219 ; movaps %xmm3,%xmm11
DB 68,15,194,223,1 ; cmpltps %xmm7,%xmm11
DB 69,15,40,225 ; movaps %xmm9,%xmm12
@@ -27226,9 +27226,9 @@ _sk_lerp_u8_sse2 LABEL PROC
DB 102,71,15,110,4,16 ; movd (%r8,%r10,1),%xmm8
DB 102,68,15,96,192 ; punpcklbw %xmm0,%xmm8
DB 102,68,15,97,192 ; punpcklwd %xmm0,%xmm8
- DB 102,68,15,219,5,98,118,1,0 ; pand 0x17662(%rip),%xmm8 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,68,15,219,5,130,216,0,0 ; pand 0xd882(%rip),%xmm8 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,166,119,1,0 ; mulps 0x177a6(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,89,5,198,217,0,0 ; mulps 0xd9c6(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 15,92,196 ; subps %xmm4,%xmm0
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 15,88,196 ; addps %xmm4,%xmm0
@@ -27278,17 +27278,17 @@ _sk_lerp_565_sse2 LABEL PROC
DB 15,133,173,0,0,0 ; jne 1ce7e <_sk_lerp_565_sse2+0xcc>
DB 243,71,15,126,4,80 ; movq (%r8,%r10,2),%xmm8
DB 102,68,15,97,192 ; punpcklwd %xmm0,%xmm8
- DB 102,68,15,111,13,251,118,1,0 ; movdqa 0x176fb(%rip),%xmm9 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
+ DB 102,68,15,111,13,27,217,0,0 ; movdqa 0xd91b(%rip),%xmm9 # 2a700 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
DB 102,69,15,219,200 ; pand %xmm8,%xmm9
DB 69,15,91,201 ; cvtdq2ps %xmm9,%xmm9
- DB 68,15,89,13,250,118,1,0 ; mulps 0x176fa(%rip),%xmm9 # 344f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
- DB 102,68,15,111,21,1,119,1,0 ; movdqa 0x17701(%rip),%xmm10 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
+ DB 68,15,89,13,26,217,0,0 ; mulps 0xd91a(%rip),%xmm9 # 2a710 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ DB 102,68,15,111,21,33,217,0,0 ; movdqa 0xd921(%rip),%xmm10 # 2a720 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
DB 102,69,15,219,208 ; pand %xmm8,%xmm10
DB 69,15,91,218 ; cvtdq2ps %xmm10,%xmm11
- DB 68,15,89,29,0,119,1,0 ; mulps 0x17700(%rip),%xmm11 # 34510 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
- DB 102,68,15,219,5,7,119,1,0 ; pand 0x17707(%rip),%xmm8 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
+ DB 68,15,89,29,32,217,0,0 ; mulps 0xd920(%rip),%xmm11 # 2a730 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 102,68,15,219,5,39,217,0,0 ; pand 0xd927(%rip),%xmm8 # 2a740 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,11,119,1,0 ; mulps 0x1770b(%rip),%xmm8 # 34530 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
+ DB 68,15,89,5,43,217,0,0 ; mulps 0xd92b(%rip),%xmm8 # 2a750 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
DB 68,15,40,211 ; movaps %xmm3,%xmm10
DB 68,15,194,215,1 ; cmpltps %xmm7,%xmm10
DB 69,15,40,227 ; movaps %xmm11,%xmm12
@@ -27343,7 +27343,7 @@ _sk_load_tables_sse2 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 15,133,31,1,0,0 ; jne 1d006 <_sk_load_tables_sse2+0x130>
DB 243,69,15,111,12,144 ; movdqu (%r8,%rdx,4),%xmm9
- DB 102,68,15,111,5,138,116,1,0 ; movdqa 0x1748a(%rip),%xmm8 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,68,15,111,5,170,214,0,0 ; movdqa 0xd6aa(%rip),%xmm8 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
DB 102,65,15,219,192 ; pand %xmm8,%xmm0
DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
@@ -27399,7 +27399,7 @@ _sk_load_tables_sse2 LABEL PROC
DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
DB 102,65,15,114,209,24 ; psrld $0x18,%xmm9
DB 65,15,91,217 ; cvtdq2ps %xmm9,%xmm3
- DB 15,89,29,209,116,1,0 ; mulps 0x174d1(%rip),%xmm3 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,29,241,214,0,0 ; mulps 0xd6f1(%rip),%xmm3 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 91 ; pop %rbx
DB 65,94 ; pop %r14
@@ -27437,7 +27437,7 @@ _sk_load_tables_u16_be_sse2 LABEL PROC
DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
DB 102,68,15,105,200 ; punpckhwd %xmm0,%xmm9
- DB 102,15,111,21,171,116,1,0 ; movdqa 0x174ab(%rip),%xmm2 # 34540 <_sk_srcover_rgba_8888_sse2_lowp+0x110c>
+ DB 102,15,111,21,203,214,0,0 ; movdqa 0xd6cb(%rip),%xmm2 # 2a760 <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
DB 102,15,112,217,238 ; pshufd $0xee,%xmm1,%xmm3
DB 102,15,219,202 ; pand %xmm2,%xmm1
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
@@ -27498,7 +27498,7 @@ _sk_load_tables_u16_be_sse2 LABEL PROC
DB 102,65,15,235,217 ; por %xmm9,%xmm3
DB 102,65,15,97,216 ; punpcklwd %xmm8,%xmm3
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,169,115,1,0 ; mulps 0x173a9(%rip),%xmm3 # 34560 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
+ DB 15,89,29,201,213,0,0 ; mulps 0xd5c9(%rip),%xmm3 # 2a780 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 91 ; pop %rbx
DB 65,94 ; pop %r14
@@ -27537,7 +27537,7 @@ _sk_load_tables_rgb_u16_be_sse2 LABEL PROC
DB 102,15,111,194 ; movdqa %xmm2,%xmm0
DB 102,65,15,97,194 ; punpcklwd %xmm10,%xmm0
DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,68,15,111,5,237,114,1,0 ; movdqa 0x172ed(%rip),%xmm8 # 34540 <_sk_srcover_rgba_8888_sse2_lowp+0x110c>
+ DB 102,68,15,111,5,13,213,0,0 ; movdqa 0xd50d(%rip),%xmm8 # 2a760 <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
DB 102,65,15,219,192 ; pand %xmm8,%xmm0
DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
DB 102,65,15,97,193 ; punpcklwd %xmm9,%xmm0
@@ -27592,7 +27592,7 @@ _sk_load_tables_rgb_u16_be_sse2 LABEL PROC
DB 65,15,20,216 ; unpcklps %xmm8,%xmm3
DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,122,111,1,0 ; movaps 0x16f7a(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,154,209,0,0 ; movaps 0xd19a(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 91 ; pop %rbx
DB 65,94 ; pop %r14
DB 255,224 ; jmpq *%rax
@@ -27622,7 +27622,7 @@ _sk_byte_tables_sse2 LABEL PROC
DB 65,86 ; push %r14
DB 83 ; push %rbx
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,231,111,1,0 ; movaps 0x16fe7(%rip),%xmm8 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,40,5,7,210,0,0 ; movaps 0xd207(%rip),%xmm8 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
DB 102,73,15,126,192 ; movq %xmm0,%r8
@@ -27650,7 +27650,7 @@ _sk_byte_tables_sse2 LABEL PROC
DB 102,65,15,96,193 ; punpcklbw %xmm9,%xmm0
DB 102,65,15,97,193 ; punpcklwd %xmm9,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,21,146,112,1,0 ; movaps 0x17092(%rip),%xmm10 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,21,178,210,0,0 ; movaps 0xd2b2(%rip),%xmm10 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,194 ; mulps %xmm10,%xmm0
DB 65,15,89,200 ; mulps %xmm8,%xmm1
DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
@@ -27767,7 +27767,7 @@ _sk_byte_tables_rgb_sse2 LABEL PROC
DB 102,65,15,96,193 ; punpcklbw %xmm9,%xmm0
DB 102,65,15,97,193 ; punpcklwd %xmm9,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,21,210,110,1,0 ; movaps 0x16ed2(%rip),%xmm10 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,21,242,208,0,0 ; movaps 0xd0f2(%rip),%xmm10 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,194 ; mulps %xmm10,%xmm0
DB 65,15,89,200 ; mulps %xmm8,%xmm1
DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
@@ -27955,15 +27955,15 @@ _sk_parametric_r_sse2 LABEL PROC
DB 69,15,88,209 ; addps %xmm9,%xmm10
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 69,15,91,202 ; cvtdq2ps %xmm10,%xmm9
- DB 68,15,89,13,158,108,1,0 ; mulps 0x16c9e(%rip),%xmm9 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 68,15,84,21,166,108,1,0 ; andps 0x16ca6(%rip),%xmm10 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
- DB 68,15,86,21,222,105,1,0 ; orps 0x169de(%rip),%xmm10 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
- DB 68,15,88,13,166,108,1,0 ; addps 0x16ca6(%rip),%xmm9 # 34590 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
- DB 68,15,40,37,174,108,1,0 ; movaps 0x16cae(%rip),%xmm12 # 345a0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
+ DB 68,15,89,13,190,206,0,0 ; mulps 0xcebe(%rip),%xmm9 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 68,15,84,21,198,206,0,0 ; andps 0xcec6(%rip),%xmm10 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 68,15,86,21,254,203,0,0 ; orps 0xcbfe(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
+ DB 68,15,88,13,198,206,0,0 ; addps 0xcec6(%rip),%xmm9 # 2a7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 68,15,40,37,206,206,0,0 ; movaps 0xcece(%rip),%xmm12 # 2a7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
DB 69,15,89,226 ; mulps %xmm10,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 68,15,88,21,174,108,1,0 ; addps 0x16cae(%rip),%xmm10 # 345b0 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
- DB 68,15,40,37,182,108,1,0 ; movaps 0x16cb6(%rip),%xmm12 # 345c0 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
+ DB 68,15,88,21,206,206,0,0 ; addps 0xcece(%rip),%xmm10 # 2a7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 68,15,40,37,214,206,0,0 ; movaps 0xced6(%rip),%xmm12 # 2a7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
DB 69,15,94,226 ; divps %xmm10,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
DB 69,15,89,203 ; mulps %xmm11,%xmm9
@@ -27971,22 +27971,22 @@ _sk_parametric_r_sse2 LABEL PROC
DB 69,15,91,226 ; cvtdq2ps %xmm10,%xmm12
DB 69,15,40,233 ; movaps %xmm9,%xmm13
DB 69,15,194,236,1 ; cmpltps %xmm12,%xmm13
- DB 68,15,40,21,160,105,1,0 ; movaps 0x169a0(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,21,192,203,0,0 ; movaps 0xcbc0(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,84,234 ; andps %xmm10,%xmm13
DB 69,15,87,219 ; xorps %xmm11,%xmm11
DB 69,15,92,229 ; subps %xmm13,%xmm12
DB 69,15,40,233 ; movaps %xmm9,%xmm13
DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 68,15,88,13,132,108,1,0 ; addps 0x16c84(%rip),%xmm9 # 345d0 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
- DB 68,15,40,37,140,108,1,0 ; movaps 0x16c8c(%rip),%xmm12 # 345e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
+ DB 68,15,88,13,164,206,0,0 ; addps 0xcea4(%rip),%xmm9 # 2a7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ DB 68,15,40,37,172,206,0,0 ; movaps 0xceac(%rip),%xmm12 # 2a800 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
DB 69,15,89,229 ; mulps %xmm13,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 68,15,40,37,140,108,1,0 ; movaps 0x16c8c(%rip),%xmm12 # 345f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
+ DB 68,15,40,37,172,206,0,0 ; movaps 0xceac(%rip),%xmm12 # 2a810 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 68,15,40,45,144,108,1,0 ; movaps 0x16c90(%rip),%xmm13 # 34600 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
+ DB 68,15,40,45,176,206,0,0 ; movaps 0xceb0(%rip),%xmm13 # 2a820 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
DB 69,15,94,236 ; divps %xmm12,%xmm13
DB 69,15,88,233 ; addps %xmm9,%xmm13
- DB 68,15,89,45,144,108,1,0 ; mulps 0x16c90(%rip),%xmm13 # 34610 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ DB 68,15,89,45,176,206,0,0 ; mulps 0xceb0(%rip),%xmm13 # 2a830 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
DB 102,69,15,91,205 ; cvtps2dq %xmm13,%xmm9
DB 243,68,15,16,96,20 ; movss 0x14(%rax),%xmm12
DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
@@ -28020,15 +28020,15 @@ _sk_parametric_g_sse2 LABEL PROC
DB 69,15,88,209 ; addps %xmm9,%xmm10
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 69,15,91,202 ; cvtdq2ps %xmm10,%xmm9
- DB 68,15,89,13,96,107,1,0 ; mulps 0x16b60(%rip),%xmm9 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 68,15,84,21,104,107,1,0 ; andps 0x16b68(%rip),%xmm10 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
- DB 68,15,86,21,160,104,1,0 ; orps 0x168a0(%rip),%xmm10 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
- DB 68,15,88,13,104,107,1,0 ; addps 0x16b68(%rip),%xmm9 # 34590 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
- DB 68,15,40,37,112,107,1,0 ; movaps 0x16b70(%rip),%xmm12 # 345a0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
+ DB 68,15,89,13,128,205,0,0 ; mulps 0xcd80(%rip),%xmm9 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 68,15,84,21,136,205,0,0 ; andps 0xcd88(%rip),%xmm10 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 68,15,86,21,192,202,0,0 ; orps 0xcac0(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
+ DB 68,15,88,13,136,205,0,0 ; addps 0xcd88(%rip),%xmm9 # 2a7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 68,15,40,37,144,205,0,0 ; movaps 0xcd90(%rip),%xmm12 # 2a7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
DB 69,15,89,226 ; mulps %xmm10,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 68,15,88,21,112,107,1,0 ; addps 0x16b70(%rip),%xmm10 # 345b0 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
- DB 68,15,40,37,120,107,1,0 ; movaps 0x16b78(%rip),%xmm12 # 345c0 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
+ DB 68,15,88,21,144,205,0,0 ; addps 0xcd90(%rip),%xmm10 # 2a7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 68,15,40,37,152,205,0,0 ; movaps 0xcd98(%rip),%xmm12 # 2a7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
DB 69,15,94,226 ; divps %xmm10,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
DB 69,15,89,203 ; mulps %xmm11,%xmm9
@@ -28036,22 +28036,22 @@ _sk_parametric_g_sse2 LABEL PROC
DB 69,15,91,226 ; cvtdq2ps %xmm10,%xmm12
DB 69,15,40,233 ; movaps %xmm9,%xmm13
DB 69,15,194,236,1 ; cmpltps %xmm12,%xmm13
- DB 68,15,40,21,98,104,1,0 ; movaps 0x16862(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,21,130,202,0,0 ; movaps 0xca82(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,84,234 ; andps %xmm10,%xmm13
DB 69,15,87,219 ; xorps %xmm11,%xmm11
DB 69,15,92,229 ; subps %xmm13,%xmm12
DB 69,15,40,233 ; movaps %xmm9,%xmm13
DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 68,15,88,13,70,107,1,0 ; addps 0x16b46(%rip),%xmm9 # 345d0 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
- DB 68,15,40,37,78,107,1,0 ; movaps 0x16b4e(%rip),%xmm12 # 345e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
+ DB 68,15,88,13,102,205,0,0 ; addps 0xcd66(%rip),%xmm9 # 2a7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ DB 68,15,40,37,110,205,0,0 ; movaps 0xcd6e(%rip),%xmm12 # 2a800 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
DB 69,15,89,229 ; mulps %xmm13,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 68,15,40,37,78,107,1,0 ; movaps 0x16b4e(%rip),%xmm12 # 345f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
+ DB 68,15,40,37,110,205,0,0 ; movaps 0xcd6e(%rip),%xmm12 # 2a810 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 68,15,40,45,82,107,1,0 ; movaps 0x16b52(%rip),%xmm13 # 34600 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
+ DB 68,15,40,45,114,205,0,0 ; movaps 0xcd72(%rip),%xmm13 # 2a820 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
DB 69,15,94,236 ; divps %xmm12,%xmm13
DB 69,15,88,233 ; addps %xmm9,%xmm13
- DB 68,15,89,45,82,107,1,0 ; mulps 0x16b52(%rip),%xmm13 # 34610 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ DB 68,15,89,45,114,205,0,0 ; mulps 0xcd72(%rip),%xmm13 # 2a830 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
DB 102,69,15,91,205 ; cvtps2dq %xmm13,%xmm9
DB 243,68,15,16,96,20 ; movss 0x14(%rax),%xmm12
DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
@@ -28085,15 +28085,15 @@ _sk_parametric_b_sse2 LABEL PROC
DB 69,15,88,209 ; addps %xmm9,%xmm10
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 69,15,91,202 ; cvtdq2ps %xmm10,%xmm9
- DB 68,15,89,13,34,106,1,0 ; mulps 0x16a22(%rip),%xmm9 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 68,15,84,21,42,106,1,0 ; andps 0x16a2a(%rip),%xmm10 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
- DB 68,15,86,21,98,103,1,0 ; orps 0x16762(%rip),%xmm10 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
- DB 68,15,88,13,42,106,1,0 ; addps 0x16a2a(%rip),%xmm9 # 34590 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
- DB 68,15,40,37,50,106,1,0 ; movaps 0x16a32(%rip),%xmm12 # 345a0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
+ DB 68,15,89,13,66,204,0,0 ; mulps 0xcc42(%rip),%xmm9 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 68,15,84,21,74,204,0,0 ; andps 0xcc4a(%rip),%xmm10 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 68,15,86,21,130,201,0,0 ; orps 0xc982(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
+ DB 68,15,88,13,74,204,0,0 ; addps 0xcc4a(%rip),%xmm9 # 2a7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 68,15,40,37,82,204,0,0 ; movaps 0xcc52(%rip),%xmm12 # 2a7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
DB 69,15,89,226 ; mulps %xmm10,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 68,15,88,21,50,106,1,0 ; addps 0x16a32(%rip),%xmm10 # 345b0 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
- DB 68,15,40,37,58,106,1,0 ; movaps 0x16a3a(%rip),%xmm12 # 345c0 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
+ DB 68,15,88,21,82,204,0,0 ; addps 0xcc52(%rip),%xmm10 # 2a7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 68,15,40,37,90,204,0,0 ; movaps 0xcc5a(%rip),%xmm12 # 2a7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
DB 69,15,94,226 ; divps %xmm10,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
DB 69,15,89,203 ; mulps %xmm11,%xmm9
@@ -28101,22 +28101,22 @@ _sk_parametric_b_sse2 LABEL PROC
DB 69,15,91,226 ; cvtdq2ps %xmm10,%xmm12
DB 69,15,40,233 ; movaps %xmm9,%xmm13
DB 69,15,194,236,1 ; cmpltps %xmm12,%xmm13
- DB 68,15,40,21,36,103,1,0 ; movaps 0x16724(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,21,68,201,0,0 ; movaps 0xc944(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,84,234 ; andps %xmm10,%xmm13
DB 69,15,87,219 ; xorps %xmm11,%xmm11
DB 69,15,92,229 ; subps %xmm13,%xmm12
DB 69,15,40,233 ; movaps %xmm9,%xmm13
DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 68,15,88,13,8,106,1,0 ; addps 0x16a08(%rip),%xmm9 # 345d0 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
- DB 68,15,40,37,16,106,1,0 ; movaps 0x16a10(%rip),%xmm12 # 345e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
+ DB 68,15,88,13,40,204,0,0 ; addps 0xcc28(%rip),%xmm9 # 2a7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ DB 68,15,40,37,48,204,0,0 ; movaps 0xcc30(%rip),%xmm12 # 2a800 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
DB 69,15,89,229 ; mulps %xmm13,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 68,15,40,37,16,106,1,0 ; movaps 0x16a10(%rip),%xmm12 # 345f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
+ DB 68,15,40,37,48,204,0,0 ; movaps 0xcc30(%rip),%xmm12 # 2a810 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 68,15,40,45,20,106,1,0 ; movaps 0x16a14(%rip),%xmm13 # 34600 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
+ DB 68,15,40,45,52,204,0,0 ; movaps 0xcc34(%rip),%xmm13 # 2a820 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
DB 69,15,94,236 ; divps %xmm12,%xmm13
DB 69,15,88,233 ; addps %xmm9,%xmm13
- DB 68,15,89,45,20,106,1,0 ; mulps 0x16a14(%rip),%xmm13 # 34610 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ DB 68,15,89,45,52,204,0,0 ; mulps 0xcc34(%rip),%xmm13 # 2a830 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
DB 102,69,15,91,205 ; cvtps2dq %xmm13,%xmm9
DB 243,68,15,16,96,20 ; movss 0x14(%rax),%xmm12
DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
@@ -28150,15 +28150,15 @@ _sk_parametric_a_sse2 LABEL PROC
DB 69,15,88,209 ; addps %xmm9,%xmm10
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 69,15,91,202 ; cvtdq2ps %xmm10,%xmm9
- DB 68,15,89,13,228,104,1,0 ; mulps 0x168e4(%rip),%xmm9 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 68,15,84,21,236,104,1,0 ; andps 0x168ec(%rip),%xmm10 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
- DB 68,15,86,21,36,102,1,0 ; orps 0x16624(%rip),%xmm10 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
- DB 68,15,88,13,236,104,1,0 ; addps 0x168ec(%rip),%xmm9 # 34590 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
- DB 68,15,40,37,244,104,1,0 ; movaps 0x168f4(%rip),%xmm12 # 345a0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
+ DB 68,15,89,13,4,203,0,0 ; mulps 0xcb04(%rip),%xmm9 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 68,15,84,21,12,203,0,0 ; andps 0xcb0c(%rip),%xmm10 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 68,15,86,21,68,200,0,0 ; orps 0xc844(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
+ DB 68,15,88,13,12,203,0,0 ; addps 0xcb0c(%rip),%xmm9 # 2a7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ DB 68,15,40,37,20,203,0,0 ; movaps 0xcb14(%rip),%xmm12 # 2a7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
DB 69,15,89,226 ; mulps %xmm10,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 68,15,88,21,244,104,1,0 ; addps 0x168f4(%rip),%xmm10 # 345b0 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
- DB 68,15,40,37,252,104,1,0 ; movaps 0x168fc(%rip),%xmm12 # 345c0 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
+ DB 68,15,88,21,20,203,0,0 ; addps 0xcb14(%rip),%xmm10 # 2a7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ DB 68,15,40,37,28,203,0,0 ; movaps 0xcb1c(%rip),%xmm12 # 2a7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
DB 69,15,94,226 ; divps %xmm10,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
DB 69,15,89,203 ; mulps %xmm11,%xmm9
@@ -28166,22 +28166,22 @@ _sk_parametric_a_sse2 LABEL PROC
DB 69,15,91,226 ; cvtdq2ps %xmm10,%xmm12
DB 69,15,40,233 ; movaps %xmm9,%xmm13
DB 69,15,194,236,1 ; cmpltps %xmm12,%xmm13
- DB 68,15,40,21,230,101,1,0 ; movaps 0x165e6(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,21,6,200,0,0 ; movaps 0xc806(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,84,234 ; andps %xmm10,%xmm13
DB 69,15,87,219 ; xorps %xmm11,%xmm11
DB 69,15,92,229 ; subps %xmm13,%xmm12
DB 69,15,40,233 ; movaps %xmm9,%xmm13
DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 68,15,88,13,202,104,1,0 ; addps 0x168ca(%rip),%xmm9 # 345d0 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
- DB 68,15,40,37,210,104,1,0 ; movaps 0x168d2(%rip),%xmm12 # 345e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
+ DB 68,15,88,13,234,202,0,0 ; addps 0xcaea(%rip),%xmm9 # 2a7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ DB 68,15,40,37,242,202,0,0 ; movaps 0xcaf2(%rip),%xmm12 # 2a800 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
DB 69,15,89,229 ; mulps %xmm13,%xmm12
DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 68,15,40,37,210,104,1,0 ; movaps 0x168d2(%rip),%xmm12 # 345f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
+ DB 68,15,40,37,242,202,0,0 ; movaps 0xcaf2(%rip),%xmm12 # 2a810 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 68,15,40,45,214,104,1,0 ; movaps 0x168d6(%rip),%xmm13 # 34600 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
+ DB 68,15,40,45,246,202,0,0 ; movaps 0xcaf6(%rip),%xmm13 # 2a820 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
DB 69,15,94,236 ; divps %xmm12,%xmm13
DB 69,15,88,233 ; addps %xmm9,%xmm13
- DB 68,15,89,45,214,104,1,0 ; mulps 0x168d6(%rip),%xmm13 # 34610 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ DB 68,15,89,45,246,202,0,0 ; mulps 0xcaf6(%rip),%xmm13 # 2a830 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
DB 102,69,15,91,205 ; cvtps2dq %xmm13,%xmm9
DB 243,68,15,16,96,20 ; movss 0x14(%rax),%xmm12
DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
@@ -28205,19 +28205,19 @@ _sk_gamma_sse2 LABEL PROC
DB 15,40,218 ; movaps %xmm2,%xmm3
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,91,194 ; cvtdq2ps %xmm2,%xmm0
- DB 15,89,5,222,103,1,0 ; mulps 0x167de(%rip),%xmm0 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 15,84,21,231,103,1,0 ; andps 0x167e7(%rip),%xmm2 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
- DB 68,15,40,53,31,101,1,0 ; movaps 0x1651f(%rip),%xmm14 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 15,89,5,254,201,0,0 ; mulps 0xc9fe(%rip),%xmm0 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 15,84,21,7,202,0,0 ; andps 0xca07(%rip),%xmm2 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 68,15,40,53,63,199,0,0 ; movaps 0xc73f(%rip),%xmm14 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 65,15,86,214 ; orps %xmm14,%xmm2
- DB 68,15,40,37,227,103,1,0 ; movaps 0x167e3(%rip),%xmm12 # 34590 <_sk_srcover_rgba_8888_sse2_lowp+0x115c>
+ DB 68,15,40,37,3,202,0,0 ; movaps 0xca03(%rip),%xmm12 # 2a7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
DB 65,15,88,196 ; addps %xmm12,%xmm0
- DB 68,15,40,29,231,103,1,0 ; movaps 0x167e7(%rip),%xmm11 # 345a0 <_sk_srcover_rgba_8888_sse2_lowp+0x116c>
+ DB 68,15,40,29,7,202,0,0 ; movaps 0xca07(%rip),%xmm11 # 2a7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
DB 15,40,226 ; movaps %xmm2,%xmm4
DB 65,15,89,227 ; mulps %xmm11,%xmm4
DB 15,92,196 ; subps %xmm4,%xmm0
- DB 68,15,40,21,229,103,1,0 ; movaps 0x167e5(%rip),%xmm10 # 345b0 <_sk_srcover_rgba_8888_sse2_lowp+0x117c>
+ DB 68,15,40,21,5,202,0,0 ; movaps 0xca05(%rip),%xmm10 # 2a7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
DB 65,15,88,210 ; addps %xmm10,%xmm2
- DB 68,15,40,45,233,103,1,0 ; movaps 0x167e9(%rip),%xmm13 # 345c0 <_sk_srcover_rgba_8888_sse2_lowp+0x118c>
+ DB 68,15,40,45,9,202,0,0 ; movaps 0xca09(%rip),%xmm13 # 2a7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
DB 65,15,40,229 ; movaps %xmm13,%xmm4
DB 15,94,226 ; divps %xmm2,%xmm4
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -28229,27 +28229,27 @@ _sk_gamma_sse2 LABEL PROC
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
DB 15,40,224 ; movaps %xmm0,%xmm4
DB 15,194,226,1 ; cmpltps %xmm2,%xmm4
- DB 68,15,40,13,201,100,1,0 ; movaps 0x164c9(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,13,233,198,0,0 ; movaps 0xc6e9(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 65,15,84,225 ; andps %xmm9,%xmm4
DB 15,92,212 ; subps %xmm4,%xmm2
DB 15,40,224 ; movaps %xmm0,%xmm4
DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,40,53,181,103,1,0 ; movaps 0x167b5(%rip),%xmm6 # 345d0 <_sk_srcover_rgba_8888_sse2_lowp+0x119c>
+ DB 15,40,53,213,201,0,0 ; movaps 0xc9d5(%rip),%xmm6 # 2a7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,40,61,203,103,1,0 ; movaps 0x167cb(%rip),%xmm7 # 345f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11bc>
+ DB 15,40,61,235,201,0,0 ; movaps 0xc9eb(%rip),%xmm7 # 2a810 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
DB 15,40,239 ; movaps %xmm7,%xmm5
DB 15,92,236 ; subps %xmm4,%xmm5
DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 15,40,37,171,103,1,0 ; movaps 0x167ab(%rip),%xmm4 # 345e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11ac>
+ DB 15,40,37,203,201,0,0 ; movaps 0xc9cb(%rip),%xmm4 # 2a800 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
DB 15,89,212 ; mulps %xmm4,%xmm2
DB 15,92,194 ; subps %xmm2,%xmm0
- DB 68,15,40,61,189,103,1,0 ; movaps 0x167bd(%rip),%xmm15 # 34600 <_sk_srcover_rgba_8888_sse2_lowp+0x11cc>
+ DB 68,15,40,61,221,201,0,0 ; movaps 0xc9dd(%rip),%xmm15 # 2a820 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
DB 65,15,40,215 ; movaps %xmm15,%xmm2
DB 15,94,213 ; divps %xmm5,%xmm2
DB 15,88,208 ; addps %xmm0,%xmm2
DB 15,91,193 ; cvtdq2ps %xmm1,%xmm0
- DB 15,89,5,25,103,1,0 ; mulps 0x16719(%rip),%xmm0 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 15,84,13,34,103,1,0 ; andps 0x16722(%rip),%xmm1 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
+ DB 15,89,5,57,201,0,0 ; mulps 0xc939(%rip),%xmm0 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 15,84,13,66,201,0,0 ; andps 0xc942(%rip),%xmm1 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
DB 65,15,86,206 ; orps %xmm14,%xmm1
DB 65,15,88,196 ; addps %xmm12,%xmm0
DB 15,40,233 ; movaps %xmm1,%xmm5
@@ -28279,9 +28279,9 @@ _sk_gamma_sse2 LABEL PROC
DB 15,94,206 ; divps %xmm6,%xmm1
DB 15,88,200 ; addps %xmm0,%xmm1
DB 15,91,195 ; cvtdq2ps %xmm3,%xmm0
- DB 15,89,5,168,102,1,0 ; mulps 0x166a8(%rip),%xmm0 # 34570 <_sk_srcover_rgba_8888_sse2_lowp+0x113c>
- DB 15,84,29,177,102,1,0 ; andps 0x166b1(%rip),%xmm3 # 34580 <_sk_srcover_rgba_8888_sse2_lowp+0x114c>
- DB 15,86,29,234,99,1,0 ; orps 0x163ea(%rip),%xmm3 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 15,89,5,200,200,0,0 ; mulps 0xc8c8(%rip),%xmm0 # 2a790 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ DB 15,84,29,209,200,0,0 ; andps 0xc8d1(%rip),%xmm3 # 2a7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ DB 15,86,29,10,198,0,0 ; orps 0xc60a(%rip),%xmm3 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 65,15,88,196 ; addps %xmm12,%xmm0
DB 68,15,89,219 ; mulps %xmm3,%xmm11
DB 65,15,92,195 ; subps %xmm11,%xmm0
@@ -28303,7 +28303,7 @@ _sk_gamma_sse2 LABEL PROC
DB 15,92,253 ; subps %xmm5,%xmm7
DB 68,15,94,255 ; divps %xmm7,%xmm15
DB 68,15,88,248 ; addps %xmm0,%xmm15
- DB 15,40,5,231,102,1,0 ; movaps 0x166e7(%rip),%xmm0 # 34610 <_sk_srcover_rgba_8888_sse2_lowp+0x11dc>
+ DB 15,40,5,7,201,0,0 ; movaps 0xc907(%rip),%xmm0 # 2a830 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
DB 15,89,208 ; mulps %xmm0,%xmm2
DB 15,89,200 ; mulps %xmm0,%xmm1
DB 68,15,89,248 ; mulps %xmm0,%xmm15
@@ -28321,29 +28321,29 @@ _sk_gamma_sse2 LABEL PROC
PUBLIC _sk_lab_to_xyz_sse2
_sk_lab_to_xyz_sse2 LABEL PROC
- DB 15,89,5,185,102,1,0 ; mulps 0x166b9(%rip),%xmm0 # 34620 <_sk_srcover_rgba_8888_sse2_lowp+0x11ec>
- DB 68,15,40,5,65,100,1,0 ; movaps 0x16441(%rip),%xmm8 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 15,89,5,217,200,0,0 ; mulps 0xc8d9(%rip),%xmm0 # 2a840 <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ DB 68,15,40,5,97,198,0,0 ; movaps 0xc661(%rip),%xmm8 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 68,15,40,13,181,102,1,0 ; movaps 0x166b5(%rip),%xmm9 # 34630 <_sk_srcover_rgba_8888_sse2_lowp+0x11fc>
+ DB 68,15,40,13,213,200,0,0 ; movaps 0xc8d5(%rip),%xmm9 # 2a850 <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
DB 65,15,88,201 ; addps %xmm9,%xmm1
DB 65,15,89,208 ; mulps %xmm8,%xmm2
DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 15,88,5,178,102,1,0 ; addps 0x166b2(%rip),%xmm0 # 34640 <_sk_srcover_rgba_8888_sse2_lowp+0x120c>
- DB 15,89,5,187,102,1,0 ; mulps 0x166bb(%rip),%xmm0 # 34650 <_sk_srcover_rgba_8888_sse2_lowp+0x121c>
- DB 15,89,13,196,102,1,0 ; mulps 0x166c4(%rip),%xmm1 # 34660 <_sk_srcover_rgba_8888_sse2_lowp+0x122c>
+ DB 15,88,5,210,200,0,0 ; addps 0xc8d2(%rip),%xmm0 # 2a860 <_sk_srcover_rgba_8888_sse2_lowp+0xda8>
+ DB 15,89,5,219,200,0,0 ; mulps 0xc8db(%rip),%xmm0 # 2a870 <_sk_srcover_rgba_8888_sse2_lowp+0xdb8>
+ DB 15,89,13,228,200,0,0 ; mulps 0xc8e4(%rip),%xmm1 # 2a880 <_sk_srcover_rgba_8888_sse2_lowp+0xdc8>
DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,89,21,202,102,1,0 ; mulps 0x166ca(%rip),%xmm2 # 34670 <_sk_srcover_rgba_8888_sse2_lowp+0x123c>
+ DB 15,89,21,234,200,0,0 ; mulps 0xc8ea(%rip),%xmm2 # 2a890 <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 68,15,92,202 ; subps %xmm2,%xmm9
DB 68,15,40,225 ; movaps %xmm1,%xmm12
DB 69,15,89,228 ; mulps %xmm12,%xmm12
DB 68,15,89,225 ; mulps %xmm1,%xmm12
- DB 15,40,21,191,102,1,0 ; movaps 0x166bf(%rip),%xmm2 # 34680 <_sk_srcover_rgba_8888_sse2_lowp+0x124c>
+ DB 15,40,21,223,200,0,0 ; movaps 0xc8df(%rip),%xmm2 # 2a8a0 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
DB 68,15,40,194 ; movaps %xmm2,%xmm8
DB 69,15,194,196,1 ; cmpltps %xmm12,%xmm8
- DB 68,15,40,21,190,102,1,0 ; movaps 0x166be(%rip),%xmm10 # 34690 <_sk_srcover_rgba_8888_sse2_lowp+0x125c>
+ DB 68,15,40,21,222,200,0,0 ; movaps 0xc8de(%rip),%xmm10 # 2a8b0 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 68,15,40,29,194,102,1,0 ; movaps 0x166c2(%rip),%xmm11 # 346a0 <_sk_srcover_rgba_8888_sse2_lowp+0x126c>
+ DB 68,15,40,29,226,200,0,0 ; movaps 0xc8e2(%rip),%xmm11 # 2a8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe08>
DB 65,15,89,203 ; mulps %xmm11,%xmm1
DB 69,15,84,224 ; andps %xmm8,%xmm12
DB 68,15,85,193 ; andnps %xmm1,%xmm8
@@ -28367,8 +28367,8 @@ _sk_lab_to_xyz_sse2 LABEL PROC
DB 15,84,194 ; andps %xmm2,%xmm0
DB 65,15,85,209 ; andnps %xmm9,%xmm2
DB 15,86,208 ; orps %xmm0,%xmm2
- DB 68,15,89,5,114,102,1,0 ; mulps 0x16672(%rip),%xmm8 # 346b0 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
- DB 15,89,21,123,102,1,0 ; mulps 0x1667b(%rip),%xmm2 # 346c0 <_sk_srcover_rgba_8888_sse2_lowp+0x128c>
+ DB 68,15,89,5,146,200,0,0 ; mulps 0xc892(%rip),%xmm8 # 2a8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe18>
+ DB 15,89,21,155,200,0,0 ; mulps 0xc89b(%rip),%xmm2 # 2a8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xe28>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 65,15,40,192 ; movaps %xmm8,%xmm0
DB 255,224 ; jmpq *%rax
@@ -28386,9 +28386,9 @@ _sk_load_a8_sse2 LABEL PROC
DB 102,67,15,110,4,16 ; movd (%r8,%r10,1),%xmm0
DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
DB 102,15,97,192 ; punpcklwd %xmm0,%xmm0
- DB 102,15,219,5,5,99,1,0 ; pand 0x16305(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,219,5,37,197,0,0 ; pand 0xc525(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,29,75,100,1,0 ; mulps 0x1644b(%rip),%xmm3 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,29,107,198,0,0 ; mulps 0xc66b(%rip),%xmm3 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 102,15,87,201 ; xorpd %xmm1,%xmm1
@@ -28429,9 +28429,9 @@ _sk_load_a8_dst_sse2 LABEL PROC
DB 102,67,15,110,36,16 ; movd (%r8,%r10,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,37,113,98,1,0 ; pand 0x16271(%rip),%xmm4 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,219,37,145,196,0,0 ; pand 0xc491(%rip),%xmm4 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 15,91,252 ; cvtdq2ps %xmm4,%xmm7
- DB 15,89,61,183,99,1,0 ; mulps 0x163b7(%rip),%xmm7 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,61,215,197,0,0 ; mulps 0xc5d7(%rip),%xmm7 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,87,228 ; xorps %xmm4,%xmm4
DB 102,15,87,237 ; xorpd %xmm5,%xmm5
@@ -28495,7 +28495,7 @@ _sk_gather_a8_sse2 LABEL PROC
DB 102,15,96,193 ; punpcklbw %xmm1,%xmm0
DB 102,15,97,193 ; punpcklwd %xmm1,%xmm0
DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,29,199,98,1,0 ; mulps 0x162c7(%rip),%xmm3 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,29,231,196,0,0 ; mulps 0xc4e7(%rip),%xmm3 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 102,15,239,201 ; pxor %xmm1,%xmm1
@@ -28511,7 +28511,7 @@ _sk_store_a8_sse2 LABEL PROC
DB 77,15,175,193 ; imul %r9,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,210 ; movslq %edx,%r10
- DB 68,15,40,5,121,97,1,0 ; movaps 0x16179(%rip),%xmm8 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,40,5,153,195,0,0 ; movaps 0xc399(%rip),%xmm8 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 68,15,89,195 ; mulps %xmm3,%xmm8
DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
@@ -28537,7 +28537,7 @@ _sk_store_a8_sse2 LABEL PROC
DB 117,213 ; jne 1e264 <_sk_store_a8_sse2+0x4c>
DB 102,65,15,197,192,4 ; pextrw $0x4,%xmm8,%eax
DB 67,136,68,16,2 ; mov %al,0x2(%r8,%r10,1)
- DB 102,68,15,219,5,221,96,1,0 ; pand 0x160dd(%rip),%xmm8 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,68,15,219,5,253,194,0,0 ; pand 0xc2fd(%rip),%xmm8 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,69,15,103,192 ; packuswb %xmm8,%xmm8
DB 102,69,15,103,192 ; packuswb %xmm8,%xmm8
DB 102,68,15,126,192 ; movd %xmm8,%eax
@@ -28560,11 +28560,11 @@ _sk_load_g8_sse2 LABEL PROC
DB 102,67,15,110,4,16 ; movd (%r8,%r10,1),%xmm0
DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
DB 102,15,97,192 ; punpcklwd %xmm0,%xmm0
- DB 102,15,219,5,142,96,1,0 ; pand 0x1608e(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,219,5,174,194,0,0 ; pand 0xc2ae(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,212,97,1,0 ; mulps 0x161d4(%rip),%xmm0 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,5,244,195,0,0 ; mulps 0xc3f4(%rip),%xmm0 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,203,95,1,0 ; movaps 0x15fcb(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,235,193,0,0 ; movaps 0xc1eb(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 255,224 ; jmpq *%rax
@@ -28603,11 +28603,11 @@ _sk_load_g8_dst_sse2 LABEL PROC
DB 102,67,15,110,36,16 ; movd (%r8,%r10,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,37,247,95,1,0 ; pand 0x15ff7(%rip),%xmm4 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,219,37,23,194,0,0 ; pand 0xc217(%rip),%xmm4 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,61,97,1,0 ; mulps 0x1613d(%rip),%xmm4 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,37,93,195,0,0 ; mulps 0xc35d(%rip),%xmm4 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,52,95,1,0 ; movaps 0x15f34(%rip),%xmm7 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,61,84,193,0,0 ; movaps 0xc154(%rip),%xmm7 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,40,236 ; movaps %xmm4,%xmm5
DB 15,40,244 ; movaps %xmm4,%xmm6
DB 255,224 ; jmpq *%rax
@@ -28669,9 +28669,9 @@ _sk_gather_g8_sse2 LABEL PROC
DB 102,15,96,193 ; punpcklbw %xmm1,%xmm0
DB 102,15,97,193 ; punpcklwd %xmm1,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,74,96,1,0 ; mulps 0x1604a(%rip),%xmm0 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 15,89,5,106,194,0,0 ; mulps 0xc26a(%rip),%xmm0 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,65,94,1,0 ; movaps 0x15e41(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,97,192,0,0 ; movaps 0xc061(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 255,224 ; jmpq *%rax
@@ -28689,19 +28689,19 @@ _sk_load_565_sse2 LABEL PROC
DB 117,83 ; jne 1e505 <_sk_load_565_sse2+0x6e>
DB 243,67,15,126,20,80 ; movq (%r8,%r10,2),%xmm2
DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,111,5,28,96,1,0 ; movdqa 0x1601c(%rip),%xmm0 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
+ DB 102,15,111,5,60,194,0,0 ; movdqa 0xc23c(%rip),%xmm0 # 2a700 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,30,96,1,0 ; mulps 0x1601e(%rip),%xmm0 # 344f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
- DB 102,15,111,13,38,96,1,0 ; movdqa 0x16026(%rip),%xmm1 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
+ DB 15,89,5,62,194,0,0 ; mulps 0xc23e(%rip),%xmm0 # 2a710 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ DB 102,15,111,13,70,194,0,0 ; movdqa 0xc246(%rip),%xmm1 # 2a720 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
DB 102,15,219,202 ; pand %xmm2,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,40,96,1,0 ; mulps 0x16028(%rip),%xmm1 # 34510 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
- DB 102,15,219,21,48,96,1,0 ; pand 0x16030(%rip),%xmm2 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
+ DB 15,89,13,72,194,0,0 ; mulps 0xc248(%rip),%xmm1 # 2a730 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 102,15,219,21,80,194,0,0 ; pand 0xc250(%rip),%xmm2 # 2a740 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,54,96,1,0 ; mulps 0x16036(%rip),%xmm2 # 34530 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
+ DB 15,89,21,86,194,0,0 ; mulps 0xc256(%rip),%xmm2 # 2a750 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,205,93,1,0 ; movaps 0x15dcd(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,237,191,0,0 ; movaps 0xbfed(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
DB 65,128,225,3 ; and $0x3,%r9b
@@ -28736,19 +28736,19 @@ _sk_load_565_dst_sse2 LABEL PROC
DB 117,83 ; jne 1e5c1 <_sk_load_565_dst_sse2+0x6e>
DB 243,67,15,126,52,80 ; movq (%r8,%r10,2),%xmm6
DB 102,15,97,240 ; punpcklwd %xmm0,%xmm6
- DB 102,15,111,37,96,95,1,0 ; movdqa 0x15f60(%rip),%xmm4 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
+ DB 102,15,111,37,128,193,0,0 ; movdqa 0xc180(%rip),%xmm4 # 2a700 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
DB 102,15,219,230 ; pand %xmm6,%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,98,95,1,0 ; mulps 0x15f62(%rip),%xmm4 # 344f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
- DB 102,15,111,45,106,95,1,0 ; movdqa 0x15f6a(%rip),%xmm5 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
+ DB 15,89,37,130,193,0,0 ; mulps 0xc182(%rip),%xmm4 # 2a710 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ DB 102,15,111,45,138,193,0,0 ; movdqa 0xc18a(%rip),%xmm5 # 2a720 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
DB 102,15,219,238 ; pand %xmm6,%xmm5
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,45,108,95,1,0 ; mulps 0x15f6c(%rip),%xmm5 # 34510 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
- DB 102,15,219,53,116,95,1,0 ; pand 0x15f74(%rip),%xmm6 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
+ DB 15,89,45,140,193,0,0 ; mulps 0xc18c(%rip),%xmm5 # 2a730 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 102,15,219,53,148,193,0,0 ; pand 0xc194(%rip),%xmm6 # 2a740 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,53,122,95,1,0 ; mulps 0x15f7a(%rip),%xmm6 # 34530 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
+ DB 15,89,53,154,193,0,0 ; mulps 0xc19a(%rip),%xmm6 # 2a750 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,17,93,1,0 ; movaps 0x15d11(%rip),%xmm7 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,61,49,191,0,0 ; movaps 0xbf31(%rip),%xmm7 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
DB 65,128,225,3 ; and $0x3,%r9b
@@ -28802,19 +28802,19 @@ _sk_gather_565_sse2 LABEL PROC
DB 102,15,196,208,3 ; pinsrw $0x3,%eax,%xmm2
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,111,5,68,94,1,0 ; movdqa 0x15e44(%rip),%xmm0 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
+ DB 102,15,111,5,100,192,0,0 ; movdqa 0xc064(%rip),%xmm0 # 2a700 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,70,94,1,0 ; mulps 0x15e46(%rip),%xmm0 # 344f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10bc>
- DB 102,15,111,13,78,94,1,0 ; movdqa 0x15e4e(%rip),%xmm1 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
+ DB 15,89,5,102,192,0,0 ; mulps 0xc066(%rip),%xmm0 # 2a710 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ DB 102,15,111,13,110,192,0,0 ; movdqa 0xc06e(%rip),%xmm1 # 2a720 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
DB 102,15,219,202 ; pand %xmm2,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,80,94,1,0 ; mulps 0x15e50(%rip),%xmm1 # 34510 <_sk_srcover_rgba_8888_sse2_lowp+0x10dc>
- DB 102,15,219,21,88,94,1,0 ; pand 0x15e58(%rip),%xmm2 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
+ DB 15,89,13,112,192,0,0 ; mulps 0xc070(%rip),%xmm1 # 2a730 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ DB 102,15,219,21,120,192,0,0 ; pand 0xc078(%rip),%xmm2 # 2a740 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,94,94,1,0 ; mulps 0x15e5e(%rip),%xmm2 # 34530 <_sk_srcover_rgba_8888_sse2_lowp+0x10fc>
+ DB 15,89,21,126,192,0,0 ; mulps 0xc07e(%rip),%xmm2 # 2a750 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,245,91,1,0 ; movaps 0x15bf5(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,21,190,0,0 ; movaps 0xbe15(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 255,224 ; jmpq *%rax
PUBLIC _sk_store_565_sse2
@@ -28826,12 +28826,12 @@ _sk_store_565_sse2 LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,210 ; movslq %edx,%r10
- DB 68,15,40,5,229,95,1,0 ; movaps 0x15fe5(%rip),%xmm8 # 346e0 <_sk_srcover_rgba_8888_sse2_lowp+0x12ac>
+ DB 68,15,40,5,5,194,0,0 ; movaps 0xc205(%rip),%xmm8 # 2a900 <_sk_srcover_rgba_8888_sse2_lowp+0xe48>
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
DB 102,65,15,114,241,11 ; pslld $0xb,%xmm9
- DB 68,15,40,21,218,95,1,0 ; movaps 0x15fda(%rip),%xmm10 # 346f0 <_sk_srcover_rgba_8888_sse2_lowp+0x12bc>
+ DB 68,15,40,21,250,193,0,0 ; movaps 0xc1fa(%rip),%xmm10 # 2a910 <_sk_srcover_rgba_8888_sse2_lowp+0xe58>
DB 68,15,89,209 ; mulps %xmm1,%xmm10
DB 102,69,15,91,210 ; cvtps2dq %xmm10,%xmm10
DB 102,65,15,114,242,5 ; pslld $0x5,%xmm10
@@ -28878,21 +28878,21 @@ _sk_load_4444_sse2 LABEL PROC
DB 117,98 ; jne 1e819 <_sk_load_4444_sse2+0x7d>
DB 243,67,15,126,28,80 ; movq (%r8,%r10,2),%xmm3
DB 102,15,97,216 ; punpcklwd %xmm0,%xmm3
- DB 102,15,111,5,55,95,1,0 ; movdqa 0x15f37(%rip),%xmm0 # 34700 <_sk_srcover_rgba_8888_sse2_lowp+0x12cc>
+ DB 102,15,111,5,87,193,0,0 ; movdqa 0xc157(%rip),%xmm0 # 2a920 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,57,95,1,0 ; mulps 0x15f39(%rip),%xmm0 # 34710 <_sk_srcover_rgba_8888_sse2_lowp+0x12dc>
- DB 102,15,111,13,65,95,1,0 ; movdqa 0x15f41(%rip),%xmm1 # 34720 <_sk_srcover_rgba_8888_sse2_lowp+0x12ec>
+ DB 15,89,5,89,193,0,0 ; mulps 0xc159(%rip),%xmm0 # 2a930 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ DB 102,15,111,13,97,193,0,0 ; movdqa 0xc161(%rip),%xmm1 # 2a940 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
DB 102,15,219,203 ; pand %xmm3,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,67,95,1,0 ; mulps 0x15f43(%rip),%xmm1 # 34730 <_sk_srcover_rgba_8888_sse2_lowp+0x12fc>
- DB 102,15,111,21,75,95,1,0 ; movdqa 0x15f4b(%rip),%xmm2 # 34740 <_sk_srcover_rgba_8888_sse2_lowp+0x130c>
+ DB 15,89,13,99,193,0,0 ; mulps 0xc163(%rip),%xmm1 # 2a950 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ DB 102,15,111,21,107,193,0,0 ; movdqa 0xc16b(%rip),%xmm2 # 2a960 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
DB 102,15,219,211 ; pand %xmm3,%xmm2
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,77,95,1,0 ; mulps 0x15f4d(%rip),%xmm2 # 34750 <_sk_srcover_rgba_8888_sse2_lowp+0x131c>
- DB 102,15,219,29,85,95,1,0 ; pand 0x15f55(%rip),%xmm3 # 34760 <_sk_srcover_rgba_8888_sse2_lowp+0x132c>
+ DB 15,89,21,109,193,0,0 ; mulps 0xc16d(%rip),%xmm2 # 2a970 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ DB 102,15,219,29,117,193,0,0 ; pand 0xc175(%rip),%xmm3 # 2a980 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,91,95,1,0 ; mulps 0x15f5b(%rip),%xmm3 # 34770 <_sk_srcover_rgba_8888_sse2_lowp+0x133c>
+ DB 15,89,29,123,193,0,0 ; mulps 0xc17b(%rip),%xmm3 # 2a990 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
@@ -28928,21 +28928,21 @@ _sk_load_4444_dst_sse2 LABEL PROC
DB 117,98 ; jne 1e8e4 <_sk_load_4444_dst_sse2+0x7d>
DB 243,67,15,126,60,80 ; movq (%r8,%r10,2),%xmm7
DB 102,15,97,248 ; punpcklwd %xmm0,%xmm7
- DB 102,15,111,37,108,94,1,0 ; movdqa 0x15e6c(%rip),%xmm4 # 34700 <_sk_srcover_rgba_8888_sse2_lowp+0x12cc>
+ DB 102,15,111,37,140,192,0,0 ; movdqa 0xc08c(%rip),%xmm4 # 2a920 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
DB 102,15,219,231 ; pand %xmm7,%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,110,94,1,0 ; mulps 0x15e6e(%rip),%xmm4 # 34710 <_sk_srcover_rgba_8888_sse2_lowp+0x12dc>
- DB 102,15,111,45,118,94,1,0 ; movdqa 0x15e76(%rip),%xmm5 # 34720 <_sk_srcover_rgba_8888_sse2_lowp+0x12ec>
+ DB 15,89,37,142,192,0,0 ; mulps 0xc08e(%rip),%xmm4 # 2a930 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ DB 102,15,111,45,150,192,0,0 ; movdqa 0xc096(%rip),%xmm5 # 2a940 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
DB 102,15,219,239 ; pand %xmm7,%xmm5
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,45,120,94,1,0 ; mulps 0x15e78(%rip),%xmm5 # 34730 <_sk_srcover_rgba_8888_sse2_lowp+0x12fc>
- DB 102,15,111,53,128,94,1,0 ; movdqa 0x15e80(%rip),%xmm6 # 34740 <_sk_srcover_rgba_8888_sse2_lowp+0x130c>
+ DB 15,89,45,152,192,0,0 ; mulps 0xc098(%rip),%xmm5 # 2a950 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ DB 102,15,111,53,160,192,0,0 ; movdqa 0xc0a0(%rip),%xmm6 # 2a960 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
DB 102,15,219,247 ; pand %xmm7,%xmm6
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,53,130,94,1,0 ; mulps 0x15e82(%rip),%xmm6 # 34750 <_sk_srcover_rgba_8888_sse2_lowp+0x131c>
- DB 102,15,219,61,138,94,1,0 ; pand 0x15e8a(%rip),%xmm7 # 34760 <_sk_srcover_rgba_8888_sse2_lowp+0x132c>
+ DB 15,89,53,162,192,0,0 ; mulps 0xc0a2(%rip),%xmm6 # 2a970 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ DB 102,15,219,61,170,192,0,0 ; pand 0xc0aa(%rip),%xmm7 # 2a980 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
- DB 15,89,61,144,94,1,0 ; mulps 0x15e90(%rip),%xmm7 # 34770 <_sk_srcover_rgba_8888_sse2_lowp+0x133c>
+ DB 15,89,61,176,192,0,0 ; mulps 0xc0b0(%rip),%xmm7 # 2a990 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
DB 65,137,249 ; mov %edi,%r9d
@@ -28997,21 +28997,21 @@ _sk_gather_4444_sse2 LABEL PROC
DB 102,15,196,216,3 ; pinsrw $0x3,%eax,%xmm3
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,97,216 ; punpcklwd %xmm0,%xmm3
- DB 102,15,111,5,65,93,1,0 ; movdqa 0x15d41(%rip),%xmm0 # 34700 <_sk_srcover_rgba_8888_sse2_lowp+0x12cc>
+ DB 102,15,111,5,97,191,0,0 ; movdqa 0xbf61(%rip),%xmm0 # 2a920 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,67,93,1,0 ; mulps 0x15d43(%rip),%xmm0 # 34710 <_sk_srcover_rgba_8888_sse2_lowp+0x12dc>
- DB 102,15,111,13,75,93,1,0 ; movdqa 0x15d4b(%rip),%xmm1 # 34720 <_sk_srcover_rgba_8888_sse2_lowp+0x12ec>
+ DB 15,89,5,99,191,0,0 ; mulps 0xbf63(%rip),%xmm0 # 2a930 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ DB 102,15,111,13,107,191,0,0 ; movdqa 0xbf6b(%rip),%xmm1 # 2a940 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
DB 102,15,219,203 ; pand %xmm3,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,77,93,1,0 ; mulps 0x15d4d(%rip),%xmm1 # 34730 <_sk_srcover_rgba_8888_sse2_lowp+0x12fc>
- DB 102,15,111,21,85,93,1,0 ; movdqa 0x15d55(%rip),%xmm2 # 34740 <_sk_srcover_rgba_8888_sse2_lowp+0x130c>
+ DB 15,89,13,109,191,0,0 ; mulps 0xbf6d(%rip),%xmm1 # 2a950 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ DB 102,15,111,21,117,191,0,0 ; movdqa 0xbf75(%rip),%xmm2 # 2a960 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
DB 102,15,219,211 ; pand %xmm3,%xmm2
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,87,93,1,0 ; mulps 0x15d57(%rip),%xmm2 # 34750 <_sk_srcover_rgba_8888_sse2_lowp+0x131c>
- DB 102,15,219,29,95,93,1,0 ; pand 0x15d5f(%rip),%xmm3 # 34760 <_sk_srcover_rgba_8888_sse2_lowp+0x132c>
+ DB 15,89,21,119,191,0,0 ; mulps 0xbf77(%rip),%xmm2 # 2a970 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ DB 102,15,219,29,127,191,0,0 ; pand 0xbf7f(%rip),%xmm3 # 2a980 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,101,93,1,0 ; mulps 0x15d65(%rip),%xmm3 # 34770 <_sk_srcover_rgba_8888_sse2_lowp+0x133c>
+ DB 15,89,29,133,191,0,0 ; mulps 0xbf85(%rip),%xmm3 # 2a990 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -29024,7 +29024,7 @@ _sk_store_4444_sse2 LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 76,99,210 ; movslq %edx,%r10
- DB 68,15,40,5,83,93,1,0 ; movaps 0x15d53(%rip),%xmm8 # 34780 <_sk_srcover_rgba_8888_sse2_lowp+0x134c>
+ DB 68,15,40,5,115,191,0,0 ; movaps 0xbf73(%rip),%xmm8 # 2a9a0 <_sk_srcover_rgba_8888_sse2_lowp+0xee8>
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
@@ -29080,11 +29080,11 @@ _sk_load_8888_sse2 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,98 ; jne 1eb60 <_sk_load_8888_sse2+0x7e>
DB 243,69,15,111,12,128 ; movdqu (%r8,%rax,4),%xmm9
- DB 102,15,111,21,116,88,1,0 ; movdqa 0x15874(%rip),%xmm2 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,21,148,186,0,0 ; movdqa 0xba94(%rip),%xmm2 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,176,89,1,0 ; movaps 0x159b0(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,208,187,0,0 ; movaps 0xbbd0(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
DB 102,15,114,209,8 ; psrld $0x8,%xmm1
@@ -29129,11 +29129,11 @@ _sk_load_8888_dst_sse2 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,98 ; jne 1ec1f <_sk_load_8888_dst_sse2+0x7e>
DB 243,69,15,111,12,128 ; movdqu (%r8,%rax,4),%xmm9
- DB 102,15,111,53,181,87,1,0 ; movdqa 0x157b5(%rip),%xmm6 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,53,213,185,0,0 ; movdqa 0xb9d5(%rip),%xmm6 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,65,15,111,225 ; movdqa %xmm9,%xmm4
DB 102,15,219,230 ; pand %xmm6,%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 68,15,40,5,241,88,1,0 ; movaps 0x158f1(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,17,187,0,0 ; movaps 0xbb11(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,224 ; mulps %xmm8,%xmm4
DB 102,65,15,111,233 ; movdqa %xmm9,%xmm5
DB 102,15,114,213,8 ; psrld $0x8,%xmm5
@@ -29195,11 +29195,11 @@ _sk_gather_8888_sse2 LABEL PROC
DB 102,67,15,110,12,136 ; movd (%r8,%r9,4),%xmm1
DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
DB 102,68,15,108,201 ; punpcklqdq %xmm1,%xmm9
- DB 102,15,111,21,159,86,1,0 ; movdqa 0x1569f(%rip),%xmm2 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,21,191,184,0,0 ; movdqa 0xb8bf(%rip),%xmm2 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,219,87,1,0 ; movaps 0x157db(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,251,185,0,0 ; movaps 0xb9fb(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
DB 102,15,114,209,8 ; psrld $0x8,%xmm1
@@ -29226,7 +29226,7 @@ _sk_store_8888_sse2 LABEL PROC
DB 73,193,224,2 ; shl $0x2,%r8
DB 76,3,0 ; add (%rax),%r8
DB 72,99,194 ; movslq %edx,%rax
- DB 68,15,40,5,92,86,1,0 ; movaps 0x1565c(%rip),%xmm8 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,40,5,124,184,0,0 ; movaps 0xb87c(%rip),%xmm8 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
@@ -29276,11 +29276,11 @@ _sk_load_bgra_sse2 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,98 ; jne 1ee68 <_sk_load_bgra_sse2+0x7e>
DB 243,69,15,111,12,128 ; movdqu (%r8,%rax,4),%xmm9
- DB 102,15,111,5,108,85,1,0 ; movdqa 0x1556c(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,5,140,183,0,0 ; movdqa 0xb78c(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
DB 102,15,219,200 ; pand %xmm0,%xmm1
DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 68,15,40,5,168,86,1,0 ; movaps 0x156a8(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,200,184,0,0 ; movaps 0xb8c8(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,208 ; mulps %xmm8,%xmm2
DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
DB 102,15,114,209,8 ; psrld $0x8,%xmm1
@@ -29325,11 +29325,11 @@ _sk_load_bgra_dst_sse2 LABEL PROC
DB 72,133,255 ; test %rdi,%rdi
DB 117,98 ; jne 1ef27 <_sk_load_bgra_dst_sse2+0x7e>
DB 243,69,15,111,12,128 ; movdqu (%r8,%rax,4),%xmm9
- DB 102,15,111,37,173,84,1,0 ; movdqa 0x154ad(%rip),%xmm4 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,37,205,182,0,0 ; movdqa 0xb6cd(%rip),%xmm4 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,65,15,111,233 ; movdqa %xmm9,%xmm5
DB 102,15,219,236 ; pand %xmm4,%xmm5
DB 15,91,245 ; cvtdq2ps %xmm5,%xmm6
- DB 68,15,40,5,233,85,1,0 ; movaps 0x155e9(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,9,184,0,0 ; movaps 0xb809(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,240 ; mulps %xmm8,%xmm6
DB 102,65,15,111,233 ; movdqa %xmm9,%xmm5
DB 102,15,114,213,8 ; psrld $0x8,%xmm5
@@ -29391,11 +29391,11 @@ _sk_gather_bgra_sse2 LABEL PROC
DB 102,67,15,110,12,136 ; movd (%r8,%r9,4),%xmm1
DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
DB 102,68,15,108,201 ; punpcklqdq %xmm1,%xmm9
- DB 102,15,111,5,151,83,1,0 ; movdqa 0x15397(%rip),%xmm0 # 34380 <_sk_srcover_rgba_8888_sse2_lowp+0xf4c>
+ DB 102,15,111,5,183,181,0,0 ; movdqa 0xb5b7(%rip),%xmm0 # 2a5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
DB 102,15,219,200 ; pand %xmm0,%xmm1
DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 68,15,40,5,211,84,1,0 ; movaps 0x154d3(%rip),%xmm8 # 344d0 <_sk_srcover_rgba_8888_sse2_lowp+0x109c>
+ DB 68,15,40,5,243,182,0,0 ; movaps 0xb6f3(%rip),%xmm8 # 2a6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
DB 65,15,89,208 ; mulps %xmm8,%xmm2
DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
DB 102,15,114,209,8 ; psrld $0x8,%xmm1
@@ -29422,7 +29422,7 @@ _sk_store_bgra_sse2 LABEL PROC
DB 73,193,224,2 ; shl $0x2,%r8
DB 76,3,0 ; add (%rax),%r8
DB 72,99,194 ; movslq %edx,%rax
- DB 68,15,40,5,84,83,1,0 ; movaps 0x15354(%rip),%xmm8 # 343b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf7c>
+ DB 68,15,40,5,116,181,0,0 ; movaps 0xb574(%rip),%xmm8 # 2a5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
DB 68,15,40,202 ; movaps %xmm2,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
@@ -29482,18 +29482,18 @@ _sk_load_f16_sse2 LABEL PROC
DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
DB 102,65,15,97,202 ; punpcklwd %xmm10,%xmm1
- DB 102,68,15,111,13,62,86,1,0 ; movdqa 0x1563e(%rip),%xmm9 # 34790 <_sk_srcover_rgba_8888_sse2_lowp+0x135c>
+ DB 102,68,15,111,13,94,184,0,0 ; movdqa 0xb85e(%rip),%xmm9 # 2a9b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
DB 102,69,15,219,225 ; pand %xmm9,%xmm12
- DB 102,68,15,111,29,59,86,1,0 ; movdqa 0x1563b(%rip),%xmm11 # 347a0 <_sk_srcover_rgba_8888_sse2_lowp+0x136c>
+ DB 102,68,15,111,29,91,184,0,0 ; movdqa 0xb85b(%rip),%xmm11 # 2a9c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
DB 102,65,15,219,203 ; pand %xmm11,%xmm1
- DB 102,15,111,29,62,86,1,0 ; movdqa 0x1563e(%rip),%xmm3 # 347b0 <_sk_srcover_rgba_8888_sse2_lowp+0x137c>
+ DB 102,15,111,29,94,184,0,0 ; movdqa 0xb85e(%rip),%xmm3 # 2a9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
DB 102,15,102,193 ; pcmpgtd %xmm1,%xmm0
DB 102,15,114,241,13 ; pslld $0xd,%xmm1
DB 102,65,15,235,204 ; por %xmm12,%xmm1
- DB 102,68,15,111,37,45,86,1,0 ; movdqa 0x1562d(%rip),%xmm12 # 347c0 <_sk_srcover_rgba_8888_sse2_lowp+0x138c>
+ DB 102,68,15,111,37,77,184,0,0 ; movdqa 0xb84d(%rip),%xmm12 # 2a9e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
DB 102,65,15,254,204 ; paddd %xmm12,%xmm1
DB 102,15,223,193 ; pandn %xmm1,%xmm0
DB 102,65,15,105,210 ; punpckhwd %xmm10,%xmm2
@@ -29565,18 +29565,18 @@ _sk_load_f16_dst_sse2 LABEL PROC
DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
DB 102,15,111,238 ; movdqa %xmm6,%xmm5
DB 102,65,15,97,234 ; punpcklwd %xmm10,%xmm5
- DB 102,68,15,111,13,181,84,1,0 ; movdqa 0x154b5(%rip),%xmm9 # 34790 <_sk_srcover_rgba_8888_sse2_lowp+0x135c>
+ DB 102,68,15,111,13,213,182,0,0 ; movdqa 0xb6d5(%rip),%xmm9 # 2a9b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
DB 102,68,15,111,229 ; movdqa %xmm5,%xmm12
DB 102,69,15,219,225 ; pand %xmm9,%xmm12
- DB 102,68,15,111,29,178,84,1,0 ; movdqa 0x154b2(%rip),%xmm11 # 347a0 <_sk_srcover_rgba_8888_sse2_lowp+0x136c>
+ DB 102,68,15,111,29,210,182,0,0 ; movdqa 0xb6d2(%rip),%xmm11 # 2a9c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
DB 102,65,15,219,235 ; pand %xmm11,%xmm5
- DB 102,15,111,61,181,84,1,0 ; movdqa 0x154b5(%rip),%xmm7 # 347b0 <_sk_srcover_rgba_8888_sse2_lowp+0x137c>
+ DB 102,15,111,61,213,182,0,0 ; movdqa 0xb6d5(%rip),%xmm7 # 2a9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
DB 102,15,111,231 ; movdqa %xmm7,%xmm4
DB 102,15,102,229 ; pcmpgtd %xmm5,%xmm4
DB 102,15,114,245,13 ; pslld $0xd,%xmm5
DB 102,65,15,235,236 ; por %xmm12,%xmm5
- DB 102,68,15,111,37,164,84,1,0 ; movdqa 0x154a4(%rip),%xmm12 # 347c0 <_sk_srcover_rgba_8888_sse2_lowp+0x138c>
+ DB 102,68,15,111,37,196,182,0,0 ; movdqa 0xb6c4(%rip),%xmm12 # 2a9e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
DB 102,65,15,254,236 ; paddd %xmm12,%xmm5
DB 102,15,223,229 ; pandn %xmm5,%xmm4
DB 102,65,15,105,242 ; punpckhwd %xmm10,%xmm6
@@ -29663,18 +29663,18 @@ _sk_gather_f16_sse2 LABEL PROC
DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
DB 102,65,15,97,202 ; punpcklwd %xmm10,%xmm1
- DB 102,68,15,111,13,230,82,1,0 ; movdqa 0x152e6(%rip),%xmm9 # 34790 <_sk_srcover_rgba_8888_sse2_lowp+0x135c>
+ DB 102,68,15,111,13,6,181,0,0 ; movdqa 0xb506(%rip),%xmm9 # 2a9b0 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
DB 102,69,15,219,225 ; pand %xmm9,%xmm12
- DB 102,68,15,111,29,227,82,1,0 ; movdqa 0x152e3(%rip),%xmm11 # 347a0 <_sk_srcover_rgba_8888_sse2_lowp+0x136c>
+ DB 102,68,15,111,29,3,181,0,0 ; movdqa 0xb503(%rip),%xmm11 # 2a9c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
DB 102,65,15,219,203 ; pand %xmm11,%xmm1
- DB 102,15,111,29,230,82,1,0 ; movdqa 0x152e6(%rip),%xmm3 # 347b0 <_sk_srcover_rgba_8888_sse2_lowp+0x137c>
+ DB 102,15,111,29,6,181,0,0 ; movdqa 0xb506(%rip),%xmm3 # 2a9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
DB 102,15,102,193 ; pcmpgtd %xmm1,%xmm0
DB 102,15,114,241,13 ; pslld $0xd,%xmm1
DB 102,65,15,235,204 ; por %xmm12,%xmm1
- DB 102,68,15,111,37,213,82,1,0 ; movdqa 0x152d5(%rip),%xmm12 # 347c0 <_sk_srcover_rgba_8888_sse2_lowp+0x138c>
+ DB 102,68,15,111,37,245,180,0,0 ; movdqa 0xb4f5(%rip),%xmm12 # 2a9e0 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
DB 102,65,15,254,204 ; paddd %xmm12,%xmm1
DB 102,15,223,193 ; pandn %xmm1,%xmm0
DB 102,65,15,105,210 ; punpckhwd %xmm10,%xmm2
@@ -29716,19 +29716,19 @@ PUBLIC _sk_store_f16_sse2
_sk_store_f16_sse2 LABEL PROC
DB 72,131,236,24 ; sub $0x18,%rsp
DB 15,41,60,36 ; movaps %xmm7,(%rsp)
- DB 102,68,15,111,29,38,82,1,0 ; movdqa 0x15226(%rip),%xmm11 # 347d0 <_sk_srcover_rgba_8888_sse2_lowp+0x139c>
+ DB 102,68,15,111,29,70,180,0,0 ; movdqa 0xb446(%rip),%xmm11 # 2a9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
DB 102,69,15,219,195 ; pand %xmm11,%xmm8
- DB 102,68,15,111,21,35,82,1,0 ; movdqa 0x15223(%rip),%xmm10 # 347e0 <_sk_srcover_rgba_8888_sse2_lowp+0x13ac>
+ DB 102,68,15,111,21,67,180,0,0 ; movdqa 0xb443(%rip),%xmm10 # 2aa00 <_sk_srcover_rgba_8888_sse2_lowp+0xf48>
DB 102,68,15,111,240 ; movdqa %xmm0,%xmm14
DB 102,69,15,219,242 ; pand %xmm10,%xmm14
- DB 102,15,111,61,33,82,1,0 ; movdqa 0x15221(%rip),%xmm7 # 347f0 <_sk_srcover_rgba_8888_sse2_lowp+0x13bc>
- DB 102,68,15,111,37,200,83,1,0 ; movdqa 0x153c8(%rip),%xmm12 # 349a0 <_sk_srcover_rgba_8888_sse2_lowp+0x156c>
+ DB 102,15,111,61,65,180,0,0 ; movdqa 0xb441(%rip),%xmm7 # 2aa10 <_sk_srcover_rgba_8888_sse2_lowp+0xf58>
+ DB 102,68,15,111,37,232,181,0,0 ; movdqa 0xb5e8(%rip),%xmm12 # 2abc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1108>
DB 102,68,15,111,248 ; movdqa %xmm0,%xmm15
DB 102,65,15,114,247,3 ; pslld $0x3,%xmm15
DB 102,69,15,219,252 ; pand %xmm12,%xmm15
DB 102,69,15,254,248 ; paddd %xmm8,%xmm15
- DB 102,68,15,111,45,122,78,1,0 ; movdqa 0x14e7a(%rip),%xmm13 # 34470 <_sk_srcover_rgba_8888_sse2_lowp+0x103c>
+ DB 102,68,15,111,45,154,176,0,0 ; movdqa 0xb09a(%rip),%xmm13 # 2a690 <_sk_srcover_rgba_8888_sse2_lowp+0xbd8>
DB 102,69,15,254,253 ; paddd %xmm13,%xmm15
DB 102,65,15,114,231,16 ; psrad $0x10,%xmm15
DB 102,68,15,111,199 ; movdqa %xmm7,%xmm8
@@ -29834,7 +29834,7 @@ _sk_load_u16_be_sse2 LABEL PROC
DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
DB 102,65,15,97,201 ; punpcklwd %xmm9,%xmm1
DB 15,91,193 ; cvtdq2ps %xmm1,%xmm0
- DB 68,15,40,5,140,77,1,0 ; movaps 0x14d8c(%rip),%xmm8 # 34560 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
+ DB 68,15,40,5,172,175,0,0 ; movaps 0xafac(%rip),%xmm8 # 2a780 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
DB 102,15,113,241,8 ; psllw $0x8,%xmm1
@@ -29907,7 +29907,7 @@ _sk_load_rgb_u16_be_sse2 LABEL PROC
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 102,65,15,97,200 ; punpcklwd %xmm8,%xmm1
DB 15,91,193 ; cvtdq2ps %xmm1,%xmm0
- DB 68,15,40,13,86,76,1,0 ; movaps 0x14c56(%rip),%xmm9 # 34560 <_sk_srcover_rgba_8888_sse2_lowp+0x112c>
+ DB 68,15,40,13,118,174,0,0 ; movaps 0xae76(%rip),%xmm9 # 2a780 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
DB 65,15,89,193 ; mulps %xmm9,%xmm0
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
DB 102,15,113,241,8 ; psllw $0x8,%xmm1
@@ -29924,7 +29924,7 @@ _sk_load_rgb_u16_be_sse2 LABEL PROC
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
DB 65,15,89,209 ; mulps %xmm9,%xmm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,125,73,1,0 ; movaps 0x1497d(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,157,171,0,0 ; movaps 0xab9d(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 255,224 ; jmpq *%rax
DB 102,65,15,110,20,64 ; movd (%r8,%rax,2),%xmm2
DB 102,15,239,201 ; pxor %xmm1,%xmm1
@@ -29956,7 +29956,7 @@ _sk_store_u16_be_sse2 LABEL PROC
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
DB 73,99,193 ; movslq %r9d,%rax
- DB 68,15,40,21,54,78,1,0 ; movaps 0x14e36(%rip),%xmm10 # 34810 <_sk_srcover_rgba_8888_sse2_lowp+0x13dc>
+ DB 68,15,40,21,86,176,0,0 ; movaps 0xb056(%rip),%xmm10 # 2aa30 <_sk_srcover_rgba_8888_sse2_lowp+0xf78>
DB 68,15,40,192 ; movaps %xmm0,%xmm8
DB 69,15,89,194 ; mulps %xmm10,%xmm8
DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
@@ -30183,7 +30183,7 @@ _sk_repeat_x_sse2 LABEL PROC
DB 243,69,15,91,194 ; cvttps2dq %xmm10,%xmm8
DB 69,15,91,216 ; cvtdq2ps %xmm8,%xmm11
DB 69,15,194,211,1 ; cmpltps %xmm11,%xmm10
- DB 68,15,84,21,147,69,1,0 ; andps 0x14593(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,84,21,179,167,0,0 ; andps 0xa7b3(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,87,192 ; xorps %xmm8,%xmm8
DB 69,15,92,218 ; subps %xmm10,%xmm11
DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
@@ -30207,7 +30207,7 @@ _sk_repeat_y_sse2 LABEL PROC
DB 243,69,15,91,194 ; cvttps2dq %xmm10,%xmm8
DB 69,15,91,216 ; cvtdq2ps %xmm8,%xmm11
DB 69,15,194,211,1 ; cmpltps %xmm11,%xmm10
- DB 68,15,84,21,57,69,1,0 ; andps 0x14539(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,84,21,89,167,0,0 ; andps 0xa759(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,87,192 ; xorps %xmm8,%xmm8
DB 69,15,92,218 ; subps %xmm10,%xmm11
DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
@@ -30231,13 +30231,13 @@ _sk_mirror_x_sse2 LABEL PROC
DB 65,15,92,193 ; subps %xmm9,%xmm0
DB 243,69,15,88,210 ; addss %xmm10,%xmm10
DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,89,29,178,66,1,0 ; mulss 0x142b2(%rip),%xmm11 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 243,68,15,89,29,242,164,0,0 ; mulss 0xa4f2(%rip),%xmm11 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 68,15,89,216 ; mulps %xmm0,%xmm11
DB 243,69,15,91,195 ; cvttps2dq %xmm11,%xmm8
DB 69,15,91,224 ; cvtdq2ps %xmm8,%xmm12
DB 69,15,194,220,1 ; cmpltps %xmm12,%xmm11
- DB 68,15,84,29,191,68,1,0 ; andps 0x144bf(%rip),%xmm11 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,84,29,223,166,0,0 ; andps 0xa6df(%rip),%xmm11 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,87,192 ; xorps %xmm8,%xmm8
DB 69,15,92,227 ; subps %xmm11,%xmm12
DB 69,15,89,226 ; mulps %xmm10,%xmm12
@@ -30264,13 +30264,13 @@ _sk_mirror_y_sse2 LABEL PROC
DB 65,15,92,201 ; subps %xmm9,%xmm1
DB 243,69,15,88,210 ; addss %xmm10,%xmm10
DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,89,29,45,66,1,0 ; mulss 0x1422d(%rip),%xmm11 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 243,68,15,89,29,109,164,0,0 ; mulss 0xa46d(%rip),%xmm11 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 68,15,89,217 ; mulps %xmm1,%xmm11
DB 243,69,15,91,195 ; cvttps2dq %xmm11,%xmm8
DB 69,15,91,224 ; cvtdq2ps %xmm8,%xmm12
DB 69,15,194,220,1 ; cmpltps %xmm12,%xmm11
- DB 68,15,84,29,58,68,1,0 ; andps 0x1443a(%rip),%xmm11 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,84,29,90,166,0,0 ; andps 0xa65a(%rip),%xmm11 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,87,192 ; xorps %xmm8,%xmm8
DB 69,15,92,227 ; subps %xmm11,%xmm12
DB 69,15,89,226 ; mulps %xmm10,%xmm12
@@ -30291,7 +30291,7 @@ PUBLIC _sk_clamp_x_1_sse2
_sk_clamp_x_1_sse2 LABEL PROC
DB 69,15,87,192 ; xorps %xmm8,%xmm8
DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 68,15,93,5,241,67,1,0 ; minps 0x143f1(%rip),%xmm8 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,93,5,17,166,0,0 ; minps 0xa611(%rip),%xmm8 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 65,15,40,192 ; movaps %xmm8,%xmm0
DB 255,224 ; jmpq *%rax
@@ -30302,7 +30302,7 @@ _sk_repeat_x_1_sse2 LABEL PROC
DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,194,200,1 ; cmpltps %xmm8,%xmm9
- DB 68,15,84,13,207,67,1,0 ; andps 0x143cf(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,84,13,239,165,0,0 ; andps 0xa5ef(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,193 ; subps %xmm9,%xmm8
DB 65,15,92,192 ; subps %xmm8,%xmm0
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -30310,14 +30310,14 @@ _sk_repeat_x_1_sse2 LABEL PROC
PUBLIC _sk_mirror_x_1_sse2
_sk_mirror_x_1_sse2 LABEL PROC
- DB 68,15,40,5,27,68,1,0 ; movaps 0x1441b(%rip),%xmm8 # 34330 <_sk_srcover_rgba_8888_sse2_lowp+0xefc>
+ DB 68,15,40,5,59,166,0,0 ; movaps 0xa63b(%rip),%xmm8 # 2a550 <_sk_srcover_rgba_8888_sse2_lowp+0xa98>
DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,13,159,67,1,0 ; movaps 0x1439f(%rip),%xmm9 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,13,191,165,0,0 ; movaps 0xa5bf(%rip),%xmm9 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 68,15,89,200 ; mulps %xmm0,%xmm9
DB 243,69,15,91,209 ; cvttps2dq %xmm9,%xmm10
DB 69,15,91,210 ; cvtdq2ps %xmm10,%xmm10
DB 69,15,194,202,1 ; cmpltps %xmm10,%xmm9
- DB 68,15,84,13,149,67,1,0 ; andps 0x14395(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,84,13,181,165,0,0 ; andps 0xa5b5(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,87,219 ; xorps %xmm11,%xmm11
DB 69,15,92,209 ; subps %xmm9,%xmm10
DB 69,15,88,210 ; addps %xmm10,%xmm10
@@ -30331,10 +30331,10 @@ _sk_mirror_x_1_sse2 LABEL PROC
PUBLIC _sk_luminance_to_alpha_sse2
_sk_luminance_to_alpha_sse2 LABEL PROC
DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,89,5,187,72,1,0 ; mulps 0x148bb(%rip),%xmm0 # 34820 <_sk_srcover_rgba_8888_sse2_lowp+0x13ec>
- DB 15,89,13,196,72,1,0 ; mulps 0x148c4(%rip),%xmm1 # 34830 <_sk_srcover_rgba_8888_sse2_lowp+0x13fc>
+ DB 15,89,5,219,170,0,0 ; mulps 0xaadb(%rip),%xmm0 # 2aa40 <_sk_srcover_rgba_8888_sse2_lowp+0xf88>
+ DB 15,89,13,228,170,0,0 ; mulps 0xaae4(%rip),%xmm1 # 2aa50 <_sk_srcover_rgba_8888_sse2_lowp+0xf98>
DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,89,29,202,72,1,0 ; mulps 0x148ca(%rip),%xmm3 # 34840 <_sk_srcover_rgba_8888_sse2_lowp+0x140c>
+ DB 15,89,29,234,170,0,0 ; mulps 0xaaea(%rip),%xmm3 # 2aa60 <_sk_srcover_rgba_8888_sse2_lowp+0xfa8>
DB 15,88,217 ; addps %xmm1,%xmm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,87,192 ; xorps %xmm0,%xmm0
@@ -30728,15 +30728,15 @@ _sk_evenly_spaced_gradient_sse2 LABEL PROC
PUBLIC _sk_gauss_a_to_rgba_sse2
_sk_gauss_a_to_rgba_sse2 LABEL PROC
- DB 15,40,5,146,66,1,0 ; movaps 0x14292(%rip),%xmm0 # 34850 <_sk_srcover_rgba_8888_sse2_lowp+0x141c>
+ DB 15,40,5,178,164,0,0 ; movaps 0xa4b2(%rip),%xmm0 # 2aa70 <_sk_srcover_rgba_8888_sse2_lowp+0xfb8>
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,152,66,1,0 ; addps 0x14298(%rip),%xmm0 # 34860 <_sk_srcover_rgba_8888_sse2_lowp+0x142c>
+ DB 15,88,5,184,164,0,0 ; addps 0xa4b8(%rip),%xmm0 # 2aa80 <_sk_srcover_rgba_8888_sse2_lowp+0xfc8>
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,158,66,1,0 ; addps 0x1429e(%rip),%xmm0 # 34870 <_sk_srcover_rgba_8888_sse2_lowp+0x143c>
+ DB 15,88,5,190,164,0,0 ; addps 0xa4be(%rip),%xmm0 # 2aa90 <_sk_srcover_rgba_8888_sse2_lowp+0xfd8>
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,164,66,1,0 ; addps 0x142a4(%rip),%xmm0 # 34880 <_sk_srcover_rgba_8888_sse2_lowp+0x144c>
+ DB 15,88,5,196,164,0,0 ; addps 0xa4c4(%rip),%xmm0 # 2aaa0 <_sk_srcover_rgba_8888_sse2_lowp+0xfe8>
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,170,66,1,0 ; addps 0x142aa(%rip),%xmm0 # 34890 <_sk_srcover_rgba_8888_sse2_lowp+0x145c>
+ DB 15,88,5,202,164,0,0 ; addps 0xa4ca(%rip),%xmm0 # 2aab0 <_sk_srcover_rgba_8888_sse2_lowp+0xff8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
@@ -30896,29 +30896,29 @@ _sk_xy_to_unit_angle_sse2 LABEL PROC
DB 69,15,94,220 ; divps %xmm12,%xmm11
DB 69,15,40,227 ; movaps %xmm11,%xmm12
DB 69,15,89,228 ; mulps %xmm12,%xmm12
- DB 68,15,40,45,58,64,1,0 ; movaps 0x1403a(%rip),%xmm13 # 348a0 <_sk_srcover_rgba_8888_sse2_lowp+0x146c>
+ DB 68,15,40,45,90,162,0,0 ; movaps 0xa25a(%rip),%xmm13 # 2aac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1008>
DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 68,15,88,45,62,64,1,0 ; addps 0x1403e(%rip),%xmm13 # 348b0 <_sk_srcover_rgba_8888_sse2_lowp+0x147c>
+ DB 68,15,88,45,94,162,0,0 ; addps 0xa25e(%rip),%xmm13 # 2aad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1018>
DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 68,15,88,45,66,64,1,0 ; addps 0x14042(%rip),%xmm13 # 348c0 <_sk_srcover_rgba_8888_sse2_lowp+0x148c>
+ DB 68,15,88,45,98,162,0,0 ; addps 0xa262(%rip),%xmm13 # 2aae0 <_sk_srcover_rgba_8888_sse2_lowp+0x1028>
DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 68,15,88,45,70,64,1,0 ; addps 0x14046(%rip),%xmm13 # 348d0 <_sk_srcover_rgba_8888_sse2_lowp+0x149c>
+ DB 68,15,88,45,102,162,0,0 ; addps 0xa266(%rip),%xmm13 # 2aaf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1038>
DB 69,15,89,235 ; mulps %xmm11,%xmm13
DB 69,15,194,202,1 ; cmpltps %xmm10,%xmm9
- DB 68,15,40,21,69,64,1,0 ; movaps 0x14045(%rip),%xmm10 # 348e0 <_sk_srcover_rgba_8888_sse2_lowp+0x14ac>
+ DB 68,15,40,21,101,162,0,0 ; movaps 0xa265(%rip),%xmm10 # 2ab00 <_sk_srcover_rgba_8888_sse2_lowp+0x1048>
DB 69,15,92,213 ; subps %xmm13,%xmm10
DB 69,15,84,209 ; andps %xmm9,%xmm10
DB 69,15,85,205 ; andnps %xmm13,%xmm9
DB 69,15,86,202 ; orps %xmm10,%xmm9
DB 68,15,194,192,1 ; cmpltps %xmm0,%xmm8
- DB 68,15,40,21,8,58,1,0 ; movaps 0x13a08(%rip),%xmm10 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,21,40,156,0,0 ; movaps 0x9c28(%rip),%xmm10 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 69,15,92,209 ; subps %xmm9,%xmm10
DB 69,15,84,208 ; andps %xmm8,%xmm10
DB 69,15,85,193 ; andnps %xmm9,%xmm8
DB 69,15,86,194 ; orps %xmm10,%xmm8
DB 68,15,40,201 ; movaps %xmm1,%xmm9
DB 68,15,194,200,1 ; cmpltps %xmm0,%xmm9
- DB 68,15,40,21,247,57,1,0 ; movaps 0x139f7(%rip),%xmm10 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,21,23,156,0,0 ; movaps 0x9c17(%rip),%xmm10 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,208 ; subps %xmm8,%xmm10
DB 69,15,84,209 ; andps %xmm9,%xmm10
DB 69,15,85,200 ; andnps %xmm8,%xmm9
@@ -30949,7 +30949,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2 LABEL PROC
DB 243,69,15,89,203 ; mulss %xmm11,%xmm9
DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 68,15,89,13,174,63,1,0 ; mulps 0x13fae(%rip),%xmm9 # 348f0 <_sk_srcover_rgba_8888_sse2_lowp+0x14bc>
+ DB 68,15,89,13,206,161,0,0 ; mulps 0xa1ce(%rip),%xmm9 # 2ab10 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
DB 15,89,192 ; mulps %xmm0,%xmm0
DB 68,15,40,225 ; movaps %xmm1,%xmm12
DB 69,15,89,228 ; mulps %xmm12,%xmm12
@@ -30957,7 +30957,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2 LABEL PROC
DB 243,69,15,89,219 ; mulss %xmm11,%xmm11
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 69,15,92,227 ; subps %xmm11,%xmm12
- DB 68,15,89,21,153,63,1,0 ; mulps 0x13f99(%rip),%xmm10 # 34900 <_sk_srcover_rgba_8888_sse2_lowp+0x14cc>
+ DB 68,15,89,21,185,161,0,0 ; mulps 0xa1b9(%rip),%xmm10 # 2ab20 <_sk_srcover_rgba_8888_sse2_lowp+0x1068>
DB 69,15,89,212 ; mulps %xmm12,%xmm10
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 15,89,192 ; mulps %xmm0,%xmm0
@@ -30966,8 +30966,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2 LABEL PROC
DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
DB 65,15,40,194 ; movaps %xmm10,%xmm0
DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 68,15,87,13,65,62,1,0 ; xorps 0x13e41(%rip),%xmm9 # 347d0 <_sk_srcover_rgba_8888_sse2_lowp+0x139c>
- DB 68,15,89,5,41,57,1,0 ; mulps 0x13929(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,87,13,97,160,0,0 ; xorps 0xa061(%rip),%xmm9 # 2a9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
+ DB 68,15,89,5,73,155,0,0 ; mulps 0x9b49(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 69,15,92,202 ; subps %xmm10,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
@@ -30986,7 +30986,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2 LABEL PROC
DB 243,69,15,89,203 ; mulss %xmm11,%xmm9
DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 68,15,89,13,16,63,1,0 ; mulps 0x13f10(%rip),%xmm9 # 348f0 <_sk_srcover_rgba_8888_sse2_lowp+0x14bc>
+ DB 68,15,89,13,48,161,0,0 ; mulps 0xa130(%rip),%xmm9 # 2ab10 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
DB 15,89,192 ; mulps %xmm0,%xmm0
DB 68,15,40,225 ; movaps %xmm1,%xmm12
DB 69,15,89,228 ; mulps %xmm12,%xmm12
@@ -30994,7 +30994,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2 LABEL PROC
DB 243,69,15,89,219 ; mulss %xmm11,%xmm11
DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
DB 69,15,92,227 ; subps %xmm11,%xmm12
- DB 68,15,89,21,251,62,1,0 ; mulps 0x13efb(%rip),%xmm10 # 34900 <_sk_srcover_rgba_8888_sse2_lowp+0x14cc>
+ DB 68,15,89,21,27,161,0,0 ; mulps 0xa11b(%rip),%xmm10 # 2ab20 <_sk_srcover_rgba_8888_sse2_lowp+0x1068>
DB 69,15,89,212 ; mulps %xmm12,%xmm10
DB 65,15,40,193 ; movaps %xmm9,%xmm0
DB 15,89,192 ; mulps %xmm0,%xmm0
@@ -31003,8 +31003,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2 LABEL PROC
DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
DB 65,15,40,194 ; movaps %xmm10,%xmm0
DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 68,15,87,13,163,61,1,0 ; xorps 0x13da3(%rip),%xmm9 # 347d0 <_sk_srcover_rgba_8888_sse2_lowp+0x139c>
- DB 68,15,89,5,139,56,1,0 ; mulps 0x1388b(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,87,13,195,159,0,0 ; xorps 0x9fc3(%rip),%xmm9 # 2a9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
+ DB 68,15,89,5,171,154,0,0 ; mulps 0x9aab(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 65,15,89,192 ; mulps %xmm8,%xmm0
DB 69,15,92,202 ; subps %xmm10,%xmm9
DB 69,15,89,200 ; mulps %xmm8,%xmm9
@@ -31020,7 +31020,7 @@ _sk_xy_to_2pt_conical_linear_sse2 LABEL PROC
DB 243,69,15,89,200 ; mulss %xmm8,%xmm9
DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 68,15,89,13,131,62,1,0 ; mulps 0x13e83(%rip),%xmm9 # 348f0 <_sk_srcover_rgba_8888_sse2_lowp+0x14bc>
+ DB 68,15,89,13,163,160,0,0 ; mulps 0xa0a3(%rip),%xmm9 # 2ab10 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
DB 15,89,192 ; mulps %xmm0,%xmm0
DB 68,15,40,209 ; movaps %xmm1,%xmm10
DB 69,15,89,210 ; mulps %xmm10,%xmm10
@@ -31028,7 +31028,7 @@ _sk_xy_to_2pt_conical_linear_sse2 LABEL PROC
DB 243,69,15,89,192 ; mulss %xmm8,%xmm8
DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 15,87,5,63,61,1,0 ; xorps 0x13d3f(%rip),%xmm0 # 347d0 <_sk_srcover_rgba_8888_sse2_lowp+0x139c>
+ DB 15,87,5,95,159,0,0 ; xorps 0x9f5f(%rip),%xmm0 # 2a9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
DB 65,15,94,193 ; divps %xmm9,%xmm0
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -31065,7 +31065,7 @@ _sk_apply_vector_mask_sse2 LABEL PROC
PUBLIC _sk_save_xy_sse2
_sk_save_xy_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,197,55,1,0 ; movaps 0x137c5(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,5,229,153,0,0 ; movaps 0x99e5(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 15,17,0 ; movups %xmm0,(%rax)
DB 68,15,40,200 ; movaps %xmm0,%xmm9
DB 69,15,88,200 ; addps %xmm8,%xmm9
@@ -31073,7 +31073,7 @@ _sk_save_xy_sse2 LABEL PROC
DB 69,15,91,210 ; cvtdq2ps %xmm10,%xmm10
DB 69,15,40,217 ; movaps %xmm9,%xmm11
DB 69,15,194,218,1 ; cmpltps %xmm10,%xmm11
- DB 68,15,40,37,176,55,1,0 ; movaps 0x137b0(%rip),%xmm12 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 68,15,40,37,208,153,0,0 ; movaps 0x99d0(%rip),%xmm12 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,84,220 ; andps %xmm12,%xmm11
DB 69,15,92,211 ; subps %xmm11,%xmm10
DB 69,15,92,202 ; subps %xmm10,%xmm9
@@ -31116,8 +31116,8 @@ _sk_bilinear_nx_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,64,64 ; movups 0x40(%rax),%xmm8
- DB 15,88,5,89,61,1,0 ; addps 0x13d59(%rip),%xmm0 # 34910 <_sk_srcover_rgba_8888_sse2_lowp+0x14dc>
- DB 68,15,40,13,17,55,1,0 ; movaps 0x13711(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,5,121,159,0,0 ; addps 0x9f79(%rip),%xmm0 # 2ab30 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ DB 68,15,40,13,49,153,0,0 ; movaps 0x9931(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
DB 68,15,17,136,128,0,0,0 ; movups %xmm9,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -31128,7 +31128,7 @@ _sk_bilinear_px_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,64,64 ; movups 0x40(%rax),%xmm8
- DB 15,88,5,224,54,1,0 ; addps 0x136e0(%rip),%xmm0 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 15,88,5,0,153,0,0 ; addps 0x9900(%rip),%xmm0 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 68,15,17,128,128,0,0,0 ; movups %xmm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -31138,8 +31138,8 @@ _sk_bilinear_ny_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,64,96 ; movups 0x60(%rax),%xmm8
- DB 15,88,13,18,61,1,0 ; addps 0x13d12(%rip),%xmm1 # 34910 <_sk_srcover_rgba_8888_sse2_lowp+0x14dc>
- DB 68,15,40,13,202,54,1,0 ; movaps 0x136ca(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,13,50,159,0,0 ; addps 0x9f32(%rip),%xmm1 # 2ab30 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ DB 68,15,40,13,234,152,0,0 ; movaps 0x98ea(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
DB 68,15,17,136,160,0,0,0 ; movups %xmm9,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -31150,7 +31150,7 @@ _sk_bilinear_py_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,64,96 ; movups 0x60(%rax),%xmm8
- DB 15,88,13,152,54,1,0 ; addps 0x13698(%rip),%xmm1 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 15,88,13,184,152,0,0 ; addps 0x98b8(%rip),%xmm1 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 68,15,17,128,160,0,0,0 ; movups %xmm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -31160,13 +31160,13 @@ _sk_bicubic_n3x_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,64,64 ; movups 0x40(%rax),%xmm8
- DB 15,88,5,219,60,1,0 ; addps 0x13cdb(%rip),%xmm0 # 34920 <_sk_srcover_rgba_8888_sse2_lowp+0x14ec>
- DB 68,15,40,13,131,54,1,0 ; movaps 0x13683(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,5,251,158,0,0 ; addps 0x9efb(%rip),%xmm0 # 2ab40 <_sk_srcover_rgba_8888_sse2_lowp+0x1088>
+ DB 68,15,40,13,163,152,0,0 ; movaps 0x98a3(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
DB 69,15,40,193 ; movaps %xmm9,%xmm8
DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,89,13,207,60,1,0 ; mulps 0x13ccf(%rip),%xmm9 # 34930 <_sk_srcover_rgba_8888_sse2_lowp+0x14fc>
- DB 68,15,88,13,87,56,1,0 ; addps 0x13857(%rip),%xmm9 # 344c0 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ DB 68,15,89,13,239,158,0,0 ; mulps 0x9eef(%rip),%xmm9 # 2ab50 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ DB 68,15,88,13,119,154,0,0 ; addps 0x9a77(%rip),%xmm9 # 2a6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 68,15,17,136,128,0,0,0 ; movups %xmm9,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -31177,16 +31177,16 @@ _sk_bicubic_n1x_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,64,64 ; movups 0x40(%rax),%xmm8
- DB 15,88,5,134,60,1,0 ; addps 0x13c86(%rip),%xmm0 # 34910 <_sk_srcover_rgba_8888_sse2_lowp+0x14dc>
- DB 68,15,40,13,62,54,1,0 ; movaps 0x1363e(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,5,166,158,0,0 ; addps 0x9ea6(%rip),%xmm0 # 2ab30 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ DB 68,15,40,13,94,152,0,0 ; movaps 0x985e(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,40,5,162,60,1,0 ; movaps 0x13ca2(%rip),%xmm8 # 34940 <_sk_srcover_rgba_8888_sse2_lowp+0x150c>
+ DB 68,15,40,5,194,158,0,0 ; movaps 0x9ec2(%rip),%xmm8 # 2ab60 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,166,60,1,0 ; addps 0x13ca6(%rip),%xmm8 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 68,15,88,5,198,158,0,0 ; addps 0x9ec6(%rip),%xmm8 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,10,54,1,0 ; addps 0x1360a(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,88,5,42,152,0,0 ; addps 0x982a(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,158,60,1,0 ; addps 0x13c9e(%rip),%xmm8 # 34960 <_sk_srcover_rgba_8888_sse2_lowp+0x152c>
+ DB 68,15,88,5,190,158,0,0 ; addps 0x9ebe(%rip),%xmm8 # 2ab80 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
DB 68,15,17,128,128,0,0,0 ; movups %xmm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -31194,17 +31194,17 @@ _sk_bicubic_n1x_sse2 LABEL PROC
PUBLIC _sk_bicubic_p1x_sse2
_sk_bicubic_p1x_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,232,53,1,0 ; movaps 0x135e8(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,5,8,152,0,0 ; movaps 0x9808(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,72,64 ; movups 0x40(%rax),%xmm9
DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,21,84,60,1,0 ; movaps 0x13c54(%rip),%xmm10 # 34940 <_sk_srcover_rgba_8888_sse2_lowp+0x150c>
+ DB 68,15,40,21,116,158,0,0 ; movaps 0x9e74(%rip),%xmm10 # 2ab60 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,88,60,1,0 ; addps 0x13c58(%rip),%xmm10 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 68,15,88,21,120,158,0,0 ; addps 0x9e78(%rip),%xmm10 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,89,209 ; mulps %xmm9,%xmm10
DB 69,15,88,208 ; addps %xmm8,%xmm10
DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,84,60,1,0 ; addps 0x13c54(%rip),%xmm10 # 34960 <_sk_srcover_rgba_8888_sse2_lowp+0x152c>
+ DB 68,15,88,21,116,158,0,0 ; addps 0x9e74(%rip),%xmm10 # 2ab80 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
DB 68,15,17,144,128,0,0,0 ; movups %xmm10,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -31214,11 +31214,11 @@ _sk_bicubic_p3x_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,0 ; movups (%rax),%xmm0
DB 68,15,16,64,64 ; movups 0x40(%rax),%xmm8
- DB 15,88,5,39,60,1,0 ; addps 0x13c27(%rip),%xmm0 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 15,88,5,71,158,0,0 ; addps 0x9e47(%rip),%xmm0 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,89,5,247,59,1,0 ; mulps 0x13bf7(%rip),%xmm8 # 34930 <_sk_srcover_rgba_8888_sse2_lowp+0x14fc>
- DB 68,15,88,5,127,55,1,0 ; addps 0x1377f(%rip),%xmm8 # 344c0 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ DB 68,15,89,5,23,158,0,0 ; mulps 0x9e17(%rip),%xmm8 # 2ab50 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ DB 68,15,88,5,159,153,0,0 ; addps 0x999f(%rip),%xmm8 # 2a6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
DB 68,15,17,128,128,0,0,0 ; movups %xmm8,0x80(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -31229,13 +31229,13 @@ _sk_bicubic_n3y_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,64,96 ; movups 0x60(%rax),%xmm8
- DB 15,88,13,189,59,1,0 ; addps 0x13bbd(%rip),%xmm1 # 34920 <_sk_srcover_rgba_8888_sse2_lowp+0x14ec>
- DB 68,15,40,13,101,53,1,0 ; movaps 0x13565(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,13,221,157,0,0 ; addps 0x9ddd(%rip),%xmm1 # 2ab40 <_sk_srcover_rgba_8888_sse2_lowp+0x1088>
+ DB 68,15,40,13,133,151,0,0 ; movaps 0x9785(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
DB 69,15,40,193 ; movaps %xmm9,%xmm8
DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,89,13,177,59,1,0 ; mulps 0x13bb1(%rip),%xmm9 # 34930 <_sk_srcover_rgba_8888_sse2_lowp+0x14fc>
- DB 68,15,88,13,57,55,1,0 ; addps 0x13739(%rip),%xmm9 # 344c0 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ DB 68,15,89,13,209,157,0,0 ; mulps 0x9dd1(%rip),%xmm9 # 2ab50 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ DB 68,15,88,13,89,153,0,0 ; addps 0x9959(%rip),%xmm9 # 2a6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
DB 69,15,89,200 ; mulps %xmm8,%xmm9
DB 68,15,17,136,160,0,0,0 ; movups %xmm9,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -31246,16 +31246,16 @@ _sk_bicubic_n1y_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,64,96 ; movups 0x60(%rax),%xmm8
- DB 15,88,13,103,59,1,0 ; addps 0x13b67(%rip),%xmm1 # 34910 <_sk_srcover_rgba_8888_sse2_lowp+0x14dc>
- DB 68,15,40,13,31,53,1,0 ; movaps 0x1351f(%rip),%xmm9 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,88,13,135,157,0,0 ; addps 0x9d87(%rip),%xmm1 # 2ab30 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ DB 68,15,40,13,63,151,0,0 ; movaps 0x973f(%rip),%xmm9 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,40,5,131,59,1,0 ; movaps 0x13b83(%rip),%xmm8 # 34940 <_sk_srcover_rgba_8888_sse2_lowp+0x150c>
+ DB 68,15,40,5,163,157,0,0 ; movaps 0x9da3(%rip),%xmm8 # 2ab60 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,135,59,1,0 ; addps 0x13b87(%rip),%xmm8 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 68,15,88,5,167,157,0,0 ; addps 0x9da7(%rip),%xmm8 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,235,52,1,0 ; addps 0x134eb(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,88,5,11,151,0,0 ; addps 0x970b(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,127,59,1,0 ; addps 0x13b7f(%rip),%xmm8 # 34960 <_sk_srcover_rgba_8888_sse2_lowp+0x152c>
+ DB 68,15,88,5,159,157,0,0 ; addps 0x9d9f(%rip),%xmm8 # 2ab80 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
DB 68,15,17,128,160,0,0,0 ; movups %xmm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -31263,17 +31263,17 @@ _sk_bicubic_n1y_sse2 LABEL PROC
PUBLIC _sk_bicubic_p1y_sse2
_sk_bicubic_p1y_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,201,52,1,0 ; movaps 0x134c9(%rip),%xmm8 # 342c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe8c>
+ DB 68,15,40,5,233,150,0,0 ; movaps 0x96e9(%rip),%xmm8 # 2a4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,72,96 ; movups 0x60(%rax),%xmm9
DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 68,15,40,21,52,59,1,0 ; movaps 0x13b34(%rip),%xmm10 # 34940 <_sk_srcover_rgba_8888_sse2_lowp+0x150c>
+ DB 68,15,40,21,84,157,0,0 ; movaps 0x9d54(%rip),%xmm10 # 2ab60 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,56,59,1,0 ; addps 0x13b38(%rip),%xmm10 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 68,15,88,21,88,157,0,0 ; addps 0x9d58(%rip),%xmm10 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,89,209 ; mulps %xmm9,%xmm10
DB 69,15,88,208 ; addps %xmm8,%xmm10
DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,52,59,1,0 ; addps 0x13b34(%rip),%xmm10 # 34960 <_sk_srcover_rgba_8888_sse2_lowp+0x152c>
+ DB 68,15,88,21,84,157,0,0 ; addps 0x9d54(%rip),%xmm10 # 2ab80 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
DB 68,15,17,144,160,0,0,0 ; movups %xmm10,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -31283,11 +31283,11 @@ _sk_bicubic_p3y_sse2 LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,16,72,32 ; movups 0x20(%rax),%xmm1
DB 68,15,16,64,96 ; movups 0x60(%rax),%xmm8
- DB 15,88,13,6,59,1,0 ; addps 0x13b06(%rip),%xmm1 # 34950 <_sk_srcover_rgba_8888_sse2_lowp+0x151c>
+ DB 15,88,13,38,157,0,0 ; addps 0x9d26(%rip),%xmm1 # 2ab70 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
DB 69,15,40,200 ; movaps %xmm8,%xmm9
DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,89,5,214,58,1,0 ; mulps 0x13ad6(%rip),%xmm8 # 34930 <_sk_srcover_rgba_8888_sse2_lowp+0x14fc>
- DB 68,15,88,5,94,54,1,0 ; addps 0x1365e(%rip),%xmm8 # 344c0 <_sk_srcover_rgba_8888_sse2_lowp+0x108c>
+ DB 68,15,89,5,246,156,0,0 ; mulps 0x9cf6(%rip),%xmm8 # 2ab50 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ DB 68,15,88,5,126,152,0,0 ; addps 0x987e(%rip),%xmm8 # 2a6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
DB 69,15,89,193 ; mulps %xmm9,%xmm8
DB 68,15,17,128,160,0,0,0 ; movups %xmm8,0xa0(%rax)
DB 72,173 ; lods %ds:(%rsi),%rax
@@ -31416,7 +31416,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 102,65,15,254,205 ; paddd %xmm13,%xmm1
DB 102,68,15,127,108,36,80 ; movdqa %xmm13,0x50(%rsp)
DB 102,15,254,217 ; paddd %xmm1,%xmm3
- DB 102,68,15,111,5,51,57,1,0 ; movdqa 0x13933(%rip),%xmm8 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,68,15,111,5,83,155,0,0 ; movdqa 0x9b53(%rip),%xmm8 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,112,195,245 ; pshufd $0xf5,%xmm3,%xmm0
DB 102,65,15,244,216 ; pmuludq %xmm8,%xmm3
DB 102,65,15,244,192 ; pmuludq %xmm8,%xmm0
@@ -31455,7 +31455,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
DB 15,20,236 ; unpcklps %xmm4,%xmm5
DB 102,15,20,221 ; unpcklpd %xmm5,%xmm3
- DB 102,68,15,111,37,250,49,1,0 ; movdqa 0x131fa(%rip),%xmm12 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,68,15,111,37,26,148,0,0 ; movdqa 0x941a(%rip),%xmm12 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,65,15,254,196 ; paddd %xmm12,%xmm0
DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
DB 102,73,15,126,224 ; movq %xmm4,%r8
@@ -31471,7 +31471,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
DB 15,20,224 ; unpcklps %xmm0,%xmm4
DB 102,15,20,236 ; unpcklpd %xmm4,%xmm5
- DB 15,40,37,31,56,1,0 ; movaps 0x1381f(%rip),%xmm4 # 34970 <_sk_srcover_rgba_8888_sse2_lowp+0x153c>
+ DB 15,40,37,63,154,0,0 ; movaps 0x9a3f(%rip),%xmm4 # 2ab90 <_sk_srcover_rgba_8888_sse2_lowp+0x10d8>
DB 68,15,88,220 ; addps %xmm4,%xmm11
DB 68,15,41,92,36,64 ; movaps %xmm11,0x40(%rsp)
DB 68,15,40,223 ; movaps %xmm7,%xmm11
@@ -31507,7 +31507,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 15,20,249 ; unpcklps %xmm1,%xmm7
DB 102,15,20,252 ; unpcklpd %xmm4,%xmm7
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,250,13,148,55,1,0 ; psubd 0x13794(%rip),%xmm1 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,13,180,153,0,0 ; psubd 0x99b4(%rip),%xmm1 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
DB 102,73,15,126,224 ; movq %xmm4,%r8
DB 102,72,15,126,200 ; movq %xmm1,%rax
@@ -31597,7 +31597,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
DB 15,20,233 ; unpcklps %xmm1,%xmm5
DB 102,15,20,221 ; unpcklpd %xmm5,%xmm3
- DB 102,68,15,111,45,108,47,1,0 ; movdqa 0x12f6c(%rip),%xmm13 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,68,15,111,45,140,145,0,0 ; movdqa 0x918c(%rip),%xmm13 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,65,15,254,197 ; paddd %xmm13,%xmm0
DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
DB 102,73,15,126,200 ; movq %xmm1,%r8
@@ -31694,7 +31694,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 102,15,111,206 ; movdqa %xmm6,%xmm1
DB 102,65,15,254,202 ; paddd %xmm10,%xmm1
DB 102,15,112,209,245 ; pshufd $0xf5,%xmm1,%xmm2
- DB 102,15,111,29,49,52,1,0 ; movdqa 0x13431(%rip),%xmm3 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,29,81,150,0,0 ; movdqa 0x9651(%rip),%xmm3 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,244,203 ; pmuludq %xmm3,%xmm1
DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
DB 102,15,111,251 ; movdqa %xmm3,%xmm7
@@ -31732,7 +31732,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
DB 15,20,236 ; unpcklps %xmm4,%xmm5
DB 102,15,20,213 ; unpcklpd %xmm5,%xmm2
- DB 102,15,111,5,1,45,1,0 ; movdqa 0x12d01(%rip),%xmm0 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,111,5,33,143,0,0 ; movdqa 0x8f21(%rip),%xmm0 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,254,216 ; paddd %xmm0,%xmm3
DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
DB 102,73,15,126,224 ; movq %xmm4,%r8
@@ -31813,7 +31813,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 102,15,111,214 ; movdqa %xmm6,%xmm2
DB 102,65,15,254,212 ; paddd %xmm12,%xmm2
DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,13,15,50,1,0 ; movdqa 0x1320f(%rip),%xmm1 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,13,47,148,0,0 ; movdqa 0x942f(%rip),%xmm1 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
DB 102,15,111,241 ; movdqa %xmm1,%xmm6
@@ -31835,7 +31835,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 68,15,20,209 ; unpcklps %xmm1,%xmm10
DB 102,68,15,20,210 ; unpcklpd %xmm2,%xmm10
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,250,13,180,49,1,0 ; psubd 0x131b4(%rip),%xmm1 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,13,212,147,0,0 ; psubd 0x93d4(%rip),%xmm1 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
DB 102,73,15,126,208 ; movq %xmm2,%r8
DB 102,72,15,126,200 ; movq %xmm1,%rax
@@ -31850,7 +31850,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 243,15,16,20,131 ; movss (%rbx,%rax,4),%xmm2
DB 15,20,209 ; unpcklps %xmm1,%xmm2
DB 102,15,20,226 ; unpcklpd %xmm2,%xmm4
- DB 102,15,254,5,223,42,1,0 ; paddd 0x12adf(%rip),%xmm0 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,254,5,255,140,0,0 ; paddd 0x8cff(%rip),%xmm0 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
DB 102,73,15,126,200 ; movq %xmm1,%r8
DB 102,72,15,126,192 ; movq %xmm0,%rax
@@ -31887,7 +31887,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 15,20,199 ; unpcklps %xmm7,%xmm0
DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,250,13,190,48,1,0 ; psubd 0x130be(%rip),%xmm1 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,13,222,146,0,0 ; psubd 0x92de(%rip),%xmm1 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,15,112,249,78 ; pshufd $0x4e,%xmm1,%xmm7
DB 102,73,15,126,248 ; movq %xmm7,%r8
DB 102,72,15,126,200 ; movq %xmm1,%rax
@@ -31902,7 +31902,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
DB 15,20,247 ; unpcklps %xmm7,%xmm6
DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 102,15,254,21,233,41,1,0 ; paddd 0x129e9(%rip),%xmm2 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,254,21,9,140,0,0 ; paddd 0x8c09(%rip),%xmm2 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,112,242,78 ; pshufd $0x4e,%xmm2,%xmm6
DB 102,73,15,126,240 ; movq %xmm6,%r8
DB 102,72,15,126,208 ; movq %xmm2,%rax
@@ -32046,7 +32046,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,65,15,254,210 ; paddd %xmm10,%xmm2
DB 102,15,111,220 ; movdqa %xmm4,%xmm3
DB 102,15,254,218 ; paddd %xmm2,%xmm3
- DB 102,15,111,37,226,45,1,0 ; movdqa 0x12de2(%rip),%xmm4 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,37,2,144,0,0 ; movdqa 0x9002(%rip),%xmm4 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,112,195,245 ; pshufd $0xf5,%xmm3,%xmm0
DB 102,15,244,220 ; pmuludq %xmm4,%xmm3
DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
@@ -32085,7 +32085,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
DB 15,20,244 ; unpcklps %xmm4,%xmm6
DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 102,15,254,5,172,38,1,0 ; paddd 0x126ac(%rip),%xmm0 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,254,5,204,136,0,0 ; paddd 0x88cc(%rip),%xmm0 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
DB 102,73,15,126,224 ; movq %xmm4,%r8
DB 102,73,15,126,193 ; movq %xmm0,%r9
@@ -32100,7 +32100,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
DB 15,20,244 ; unpcklps %xmm4,%xmm6
DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
- DB 15,40,53,214,44,1,0 ; movaps 0x12cd6(%rip),%xmm6 # 34970 <_sk_srcover_rgba_8888_sse2_lowp+0x153c>
+ DB 15,40,53,246,142,0,0 ; movaps 0x8ef6(%rip),%xmm6 # 2ab90 <_sk_srcover_rgba_8888_sse2_lowp+0x10d8>
DB 68,15,88,198 ; addps %xmm6,%xmm8
DB 68,15,41,68,36,48 ; movaps %xmm8,0x30(%rsp)
DB 68,15,88,254 ; addps %xmm6,%xmm15
@@ -32118,7 +32118,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,65,15,254,215 ; paddd %xmm15,%xmm2
DB 102,68,15,127,124,36,96 ; movdqa %xmm15,0x60(%rsp)
DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,13,137,44,1,0 ; movdqa 0x12c89(%rip),%xmm1 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,13,169,142,0,0 ; movdqa 0x8ea9(%rip),%xmm1 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
@@ -32139,7 +32139,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 15,20,240 ; unpcklps %xmm0,%xmm6
DB 102,15,20,242 ; unpcklpd %xmm2,%xmm6
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,250,5,52,44,1,0 ; psubd 0x12c34(%rip),%xmm0 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,5,84,142,0,0 ; psubd 0x8e54(%rip),%xmm0 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
DB 102,73,15,126,208 ; movq %xmm2,%r8
DB 102,72,15,126,192 ; movq %xmm0,%rax
@@ -32154,7 +32154,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,68,15,16,28,131 ; movss (%rbx,%rax,4),%xmm11
DB 68,15,20,216 ; unpcklps %xmm0,%xmm11
DB 102,65,15,20,211 ; unpcklpd %xmm11,%xmm2
- DB 102,15,254,13,92,37,1,0 ; paddd 0x1255c(%rip),%xmm1 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,254,13,124,135,0,0 ; paddd 0x877c(%rip),%xmm1 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
DB 102,73,15,126,192 ; movq %xmm0,%r8
DB 102,72,15,126,200 ; movq %xmm1,%rax
@@ -32192,7 +32192,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
DB 102,15,254,68,36,32 ; paddd 0x20(%rsp),%xmm0
DB 102,15,112,216,245 ; pshufd $0xf5,%xmm0,%xmm3
- DB 102,15,111,37,48,43,1,0 ; movdqa 0x12b30(%rip),%xmm4 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,37,80,141,0,0 ; movdqa 0x8d50(%rip),%xmm4 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
DB 102,15,244,220 ; pmuludq %xmm4,%xmm3
DB 102,68,15,111,220 ; movdqa %xmm4,%xmm11
@@ -32230,7 +32230,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
DB 15,20,253 ; unpcklps %xmm5,%xmm7
DB 102,15,20,199 ; unpcklpd %xmm7,%xmm0
- DB 102,68,15,111,5,252,35,1,0 ; movdqa 0x123fc(%rip),%xmm8 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,68,15,111,5,28,134,0,0 ; movdqa 0x861c(%rip),%xmm8 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,65,15,254,224 ; paddd %xmm8,%xmm4
DB 102,15,112,236,78 ; pshufd $0x4e,%xmm4,%xmm5
DB 102,73,15,126,232 ; movq %xmm5,%r8
@@ -32376,7 +32376,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
DB 15,20,226 ; unpcklps %xmm2,%xmm4
DB 102,15,20,252 ; unpcklpd %xmm4,%xmm7
- DB 102,68,15,111,61,75,33,1,0 ; movdqa 0x1214b(%rip),%xmm15 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,68,15,111,61,107,131,0,0 ; movdqa 0x836b(%rip),%xmm15 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,65,15,254,207 ; paddd %xmm15,%xmm1
DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
DB 102,73,15,126,208 ; movq %xmm2,%r8
@@ -32459,7 +32459,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
DB 102,65,15,254,216 ; paddd %xmm8,%xmm3
DB 102,15,112,211,245 ; pshufd $0xf5,%xmm3,%xmm2
- DB 102,15,111,45,84,38,1,0 ; movdqa 0x12654(%rip),%xmm5 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,45,116,136,0,0 ; movdqa 0x8874(%rip),%xmm5 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,244,221 ; pmuludq %xmm5,%xmm3
DB 102,15,244,213 ; pmuludq %xmm5,%xmm2
DB 102,15,112,234,232 ; pshufd $0xe8,%xmm2,%xmm5
@@ -32480,7 +32480,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 68,15,20,198 ; unpcklps %xmm6,%xmm8
DB 102,68,15,20,197 ; unpcklpd %xmm5,%xmm8
DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,250,45,253,37,1,0 ; psubd 0x125fd(%rip),%xmm5 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,45,29,136,0,0 ; psubd 0x881d(%rip),%xmm5 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,15,112,245,78 ; pshufd $0x4e,%xmm5,%xmm6
DB 102,73,15,126,240 ; movq %xmm6,%r8
DB 102,72,15,126,232 ; movq %xmm5,%rax
@@ -32512,7 +32512,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,20,214 ; unpcklpd %xmm6,%xmm2
DB 102,69,15,254,205 ; paddd %xmm13,%xmm9
DB 102,65,15,112,233,245 ; pshufd $0xf5,%xmm9,%xmm5
- DB 102,15,111,29,91,37,1,0 ; movdqa 0x1255b(%rip),%xmm3 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,29,123,135,0,0 ; movdqa 0x877b(%rip),%xmm3 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,68,15,244,203 ; pmuludq %xmm3,%xmm9
DB 102,15,244,235 ; pmuludq %xmm3,%xmm5
DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
@@ -32533,7 +32533,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 69,15,20,233 ; unpcklps %xmm9,%xmm13
DB 102,68,15,20,237 ; unpcklpd %xmm5,%xmm13
DB 102,65,15,111,239 ; movdqa %xmm15,%xmm5
- DB 102,15,250,45,251,36,1,0 ; psubd 0x124fb(%rip),%xmm5 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,45,27,135,0,0 ; psubd 0x871b(%rip),%xmm5 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,15,112,221,78 ; pshufd $0x4e,%xmm5,%xmm3
DB 102,73,15,126,216 ; movq %xmm3,%r8
DB 102,72,15,126,232 ; movq %xmm5,%rax
@@ -32548,7 +32548,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
DB 15,20,235 ; unpcklps %xmm3,%xmm5
DB 102,15,20,245 ; unpcklpd %xmm5,%xmm6
- DB 102,68,15,111,13,37,30,1,0 ; movdqa 0x11e25(%rip),%xmm9 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,68,15,111,13,69,128,0,0 ; movdqa 0x8045(%rip),%xmm9 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,69,15,254,249 ; paddd %xmm9,%xmm15
DB 102,65,15,112,223,78 ; pshufd $0x4e,%xmm15,%xmm3
DB 102,73,15,126,216 ; movq %xmm3,%r8
@@ -32610,7 +32610,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
DB 102,15,254,195 ; paddd %xmm3,%xmm0
DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,15,111,21,143,35,1,0 ; movdqa 0x1238f(%rip),%xmm2 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,21,175,133,0,0 ; movdqa 0x85af(%rip),%xmm2 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
DB 102,68,15,111,234 ; movdqa %xmm2,%xmm13
@@ -32803,7 +32803,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 68,15,20,238 ; unpcklps %xmm6,%xmm13
DB 102,68,15,20,234 ; unpcklpd %xmm2,%xmm13
DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,250,21,40,32,1,0 ; psubd 0x12028(%rip),%xmm2 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,21,72,130,0,0 ; psubd 0x8248(%rip),%xmm2 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,15,112,242,78 ; pshufd $0x4e,%xmm2,%xmm6
DB 102,73,15,126,240 ; movq %xmm6,%r8
DB 102,72,15,126,208 ; movq %xmm2,%rax
@@ -32863,7 +32863,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,68,15,111,116,36,32 ; movdqa 0x20(%rsp),%xmm14
DB 102,65,15,254,198 ; paddd %xmm14,%xmm0
DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,68,15,111,5,5,31,1,0 ; movdqa 0x11f05(%rip),%xmm8 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,68,15,111,5,37,129,0,0 ; movdqa 0x8125(%rip),%xmm8 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,65,15,244,192 ; pmuludq %xmm8,%xmm0
DB 102,65,15,244,200 ; pmuludq %xmm8,%xmm1
DB 102,65,15,111,240 ; movdqa %xmm8,%xmm6
@@ -32901,7 +32901,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
DB 15,20,235 ; unpcklps %xmm3,%xmm5
DB 102,15,20,205 ; unpcklpd %xmm5,%xmm1
- DB 102,68,15,111,5,211,23,1,0 ; movdqa 0x117d3(%rip),%xmm8 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,68,15,111,5,243,121,0,0 ; movdqa 0x79f3(%rip),%xmm8 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
DB 102,73,15,126,216 ; movq %xmm3,%r8
@@ -32984,7 +32984,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,254,208 ; paddd %xmm0,%xmm2
DB 102,15,111,240 ; movdqa %xmm0,%xmm6
DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,37,221,28,1,0 ; movdqa 0x11cdd(%rip),%xmm4 # 34980 <_sk_srcover_rgba_8888_sse2_lowp+0x154c>
+ DB 102,15,111,37,253,126,0,0 ; movdqa 0x7efd(%rip),%xmm4 # 2aba0 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
DB 102,15,244,212 ; pmuludq %xmm4,%xmm2
DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
DB 102,15,112,200,232 ; pshufd $0xe8,%xmm0,%xmm1
@@ -33005,7 +33005,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 68,15,20,193 ; unpcklps %xmm1,%xmm8
DB 102,68,15,20,194 ; unpcklpd %xmm2,%xmm8
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,250,13,134,28,1,0 ; psubd 0x11c86(%rip),%xmm1 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,13,166,126,0,0 ; psubd 0x7ea6(%rip),%xmm1 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
DB 102,73,15,126,208 ; movq %xmm2,%r8
DB 102,72,15,126,200 ; movq %xmm1,%rax
@@ -33020,7 +33020,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,20,131 ; movss (%rbx,%rax,4),%xmm2
DB 15,20,209 ; unpcklps %xmm1,%xmm2
DB 102,68,15,20,242 ; unpcklpd %xmm2,%xmm14
- DB 102,15,254,5,175,21,1,0 ; paddd 0x115af(%rip),%xmm0 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,254,5,207,119,0,0 ; paddd 0x77cf(%rip),%xmm0 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
DB 102,73,15,126,200 ; movq %xmm1,%r8
DB 102,72,15,126,192 ; movq %xmm0,%rax
@@ -33058,7 +33058,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 15,20,198 ; unpcklps %xmm6,%xmm0
DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,250,13,142,27,1,0 ; psubd 0x11b8e(%rip),%xmm1 # 34990 <_sk_srcover_rgba_8888_sse2_lowp+0x155c>
+ DB 102,15,250,13,174,125,0,0 ; psubd 0x7dae(%rip),%xmm1 # 2abb0 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
DB 102,15,112,241,78 ; pshufd $0x4e,%xmm1,%xmm6
DB 102,73,15,126,240 ; movq %xmm6,%r8
DB 102,72,15,126,200 ; movq %xmm1,%rax
@@ -33073,7 +33073,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
DB 15,20,230 ; unpcklps %xmm6,%xmm4
DB 102,15,20,204 ; unpcklpd %xmm4,%xmm1
- DB 102,15,254,21,185,20,1,0 ; paddd 0x114b9(%rip),%xmm2 # 34300 <_sk_srcover_rgba_8888_sse2_lowp+0xecc>
+ DB 102,15,254,21,217,118,0,0 ; paddd 0x76d9(%rip),%xmm2 # 2a520 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
DB 102,73,15,126,224 ; movq %xmm4,%r8
DB 102,72,15,126,208 ; movq %xmm2,%rax
@@ -33132,7 +33132,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 15,89,212 ; mulps %xmm4,%xmm2
DB 65,15,88,215 ; addps %xmm15,%xmm2
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,159,19,1,0 ; movaps 0x1139f(%rip),%xmm3 # 342d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe9c>
+ DB 15,40,29,191,117,0,0 ; movaps 0x75bf(%rip),%xmm3 # 2a4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
DB 15,40,164,36,224,0,0,0 ; movaps 0xe0(%rsp),%xmm4
DB 15,40,172,36,240,0,0,0 ; movaps 0xf0(%rsp),%xmm5
DB 15,40,180,36,0,1,0,0 ; movaps 0x100(%rsp),%xmm6
@@ -33142,9504 +33142,6 @@ _sk_clut_4D_sse2 LABEL PROC
DB 255,224 ; jmpq *%rax
DB 144 ; nop
-PUBLIC _sk_start_pipeline_hsw_8bit
-_sk_start_pipeline_hsw_8bit LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 86 ; push %rsi
- DB 87 ; push %rdi
- DB 83 ; push %rbx
- DB 72,129,236,200,0,0,0 ; sub $0xc8,%rsp
- DB 197,120,41,125,176 ; vmovaps %xmm15,-0x50(%rbp)
- DB 197,120,41,117,160 ; vmovaps %xmm14,-0x60(%rbp)
- DB 197,120,41,109,144 ; vmovaps %xmm13,-0x70(%rbp)
- DB 197,120,41,101,128 ; vmovaps %xmm12,-0x80(%rbp)
- DB 197,120,41,157,112,255,255,255 ; vmovaps %xmm11,-0x90(%rbp)
- DB 197,120,41,149,96,255,255,255 ; vmovaps %xmm10,-0xa0(%rbp)
- DB 197,120,41,141,80,255,255,255 ; vmovaps %xmm9,-0xb0(%rbp)
- DB 197,120,41,133,64,255,255,255 ; vmovaps %xmm8,-0xc0(%rbp)
- DB 197,248,41,189,48,255,255,255 ; vmovaps %xmm7,-0xd0(%rbp)
- DB 197,248,41,181,32,255,255,255 ; vmovaps %xmm6,-0xe0(%rbp)
- DB 77,137,199 ; mov %r8,%r15
- DB 72,137,211 ; mov %rdx,%rbx
- DB 72,137,141,24,255,255,255 ; mov %rcx,-0xe8(%rbp)
- DB 72,139,117,48 ; mov 0x30(%rbp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 73,137,197 ; mov %rax,%r13
- DB 73,137,246 ; mov %rsi,%r14
- DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
- DB 76,57,203 ; cmp %r9,%rbx
- DB 115,101 ; jae 23040 <_sk_start_pipeline_hsw_8bit+0xe4>
- DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
- DB 72,141,64,16 ; lea 0x10(%rax),%rax
- DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
- DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 119,38 ; ja 23023 <_sk_start_pipeline_hsw_8bit+0xc7>
- DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
- DB 49,255 ; xor %edi,%edi
- DB 76,137,246 ; mov %r14,%rsi
- DB 76,137,226 ; mov %r12,%rdx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 73,141,84,36,16 ; lea 0x10(%r12),%rdx
- DB 73,131,196,32 ; add $0x20,%r12
- DB 77,57,252 ; cmp %r15,%r12
- DB 73,137,212 ; mov %rdx,%r12
- DB 118,225 ; jbe 23004 <_sk_start_pipeline_hsw_8bit+0xa8>
- DB 76,137,255 ; mov %r15,%rdi
- DB 72,41,215 ; sub %rdx,%rdi
- DB 116,9 ; je 23034 <_sk_start_pipeline_hsw_8bit+0xd8>
- DB 76,137,246 ; mov %r14,%rsi
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 72,255,195 ; inc %rbx
- DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 117,173 ; jne 22fed <_sk_start_pipeline_hsw_8bit+0x91>
- DB 197,248,40,181,32,255,255,255 ; vmovaps -0xe0(%rbp),%xmm6
- DB 197,248,40,189,48,255,255,255 ; vmovaps -0xd0(%rbp),%xmm7
- DB 197,120,40,133,64,255,255,255 ; vmovaps -0xc0(%rbp),%xmm8
- DB 197,120,40,141,80,255,255,255 ; vmovaps -0xb0(%rbp),%xmm9
- DB 197,120,40,149,96,255,255,255 ; vmovaps -0xa0(%rbp),%xmm10
- DB 197,120,40,157,112,255,255,255 ; vmovaps -0x90(%rbp),%xmm11
- DB 197,120,40,101,128 ; vmovaps -0x80(%rbp),%xmm12
- DB 197,120,40,109,144 ; vmovaps -0x70(%rbp),%xmm13
- DB 197,120,40,117,160 ; vmovaps -0x60(%rbp),%xmm14
- DB 197,120,40,125,176 ; vmovaps -0x50(%rbp),%xmm15
- DB 72,129,196,200,0,0,0 ; add $0xc8,%rsp
- DB 91 ; pop %rbx
- DB 95 ; pop %rdi
- DB 94 ; pop %rsi
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 197,248,119 ; vzeroupper
- DB 195 ; retq
-
-PUBLIC _sk_just_return_hsw_8bit
-_sk_just_return_hsw_8bit LABEL PROC
- DB 195 ; retq
-
-PUBLIC _sk_uniform_color_hsw_8bit
-_sk_uniform_color_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_set_rgb_hsw_8bit
-_sk_set_rgb_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,250,16,37,30,16,1,0 ; vmovss 0x1101e(%rip),%xmm4 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 197,218,89,40 ; vmulss (%rax),%xmm4,%xmm5
- DB 196,97,250,44,197 ; vcvttss2si %xmm5,%r8
- DB 197,218,89,104,4 ; vmulss 0x4(%rax),%xmm4,%xmm5
- DB 196,97,250,44,205 ; vcvttss2si %xmm5,%r9
- DB 65,193,225,8 ; shl $0x8,%r9d
- DB 69,9,193 ; or %r8d,%r9d
- DB 197,218,89,96,8 ; vmulss 0x8(%rax),%xmm4,%xmm4
- DB 196,225,250,44,196 ; vcvttss2si %xmm4,%rax
- DB 193,224,16 ; shl $0x10,%eax
- DB 68,9,200 ; or %r9d,%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 196,226,125,88,228 ; vpbroadcastd %xmm4,%ymm4
- DB 197,253,111,45,79,10,1,0 ; vmovdqa 0x10a4f(%rip),%ymm5 # 33b40 <_sk_srcover_rgba_8888_sse2_lowp+0x70c>
- DB 197,245,219,205 ; vpand %ymm5,%ymm1,%ymm1
- DB 197,253,219,197 ; vpand %ymm5,%ymm0,%ymm0
- DB 197,221,235,192 ; vpor %ymm0,%ymm4,%ymm0
- DB 197,221,235,201 ; vpor %ymm1,%ymm4,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_hsw_8bit
-_sk_premul_hsw_8bit LABEL PROC
- DB 197,253,111,37,83,10,1,0 ; vmovdqa 0x10a53(%rip),%ymm4 # 33b60 <_sk_srcover_rgba_8888_sse2_lowp+0x72c>
- DB 196,226,125,0,236 ; vpshufb %ymm4,%ymm0,%ymm5
- DB 196,226,117,0,228 ; vpshufb %ymm4,%ymm1,%ymm4
- DB 196,227,125,57,198,1 ; vextracti128 $0x1,%ymm0,%xmm6
- DB 196,98,125,48,206 ; vpmovzxbw %xmm6,%ymm9
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,207,1 ; vextracti128 $0x1,%ymm1,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 197,125,111,5,65,10,1,0 ; vmovdqa 0x10a41(%rip),%ymm8 # 33b80 <_sk_srcover_rgba_8888_sse2_lowp+0x74c>
- DB 196,193,93,235,224 ; vpor %ymm8,%ymm4,%ymm4
- DB 196,193,85,235,232 ; vpor %ymm8,%ymm5,%ymm5
- DB 196,227,125,57,238,1 ; vextracti128 $0x1,%ymm5,%xmm6
- DB 196,98,125,48,198 ; vpmovzxbw %xmm6,%ymm8
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,227,125,57,230,1 ; vextracti128 $0x1,%ymm4,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 197,221,213,225 ; vpmullw %ymm1,%ymm4,%ymm4
- DB 197,205,213,247 ; vpmullw %ymm7,%ymm6,%ymm6
- DB 197,213,213,232 ; vpmullw %ymm0,%ymm5,%ymm5
- DB 196,65,61,213,193 ; vpmullw %ymm9,%ymm8,%ymm8
- DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
- DB 197,213,253,192 ; vpaddw %ymm0,%ymm5,%ymm0
- DB 197,205,253,239 ; vpaddw %ymm7,%ymm6,%ymm5
- DB 197,221,253,201 ; vpaddw %ymm1,%ymm4,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,221,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm4
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 196,193,85,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm5
- DB 196,227,125,56,245,1 ; vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- DB 196,227,125,70,197,49 ; vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,227,117,56,236,1 ; vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- DB 196,227,117,70,204,49 ; vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- DB 197,213,103,201 ; vpackuswb %ymm1,%ymm5,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_swap_rb_hsw_8bit
-_sk_swap_rb_hsw_8bit LABEL PROC
- DB 197,253,111,37,212,9,1,0 ; vmovdqa 0x109d4(%rip),%ymm4 # 33ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x76c>
- DB 196,226,125,0,196 ; vpshufb %ymm4,%ymm0,%ymm0
- DB 196,226,117,0,204 ; vpshufb %ymm4,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_invert_hsw_8bit
-_sk_invert_hsw_8bit LABEL PROC
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,253,239,196 ; vpxor %ymm4,%ymm0,%ymm0
- DB 197,245,239,204 ; vpxor %ymm4,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_8888_hsw_8bit
-_sk_load_8888_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 23217 <_sk_load_8888_hsw_8bit+0x2d>
- DB 196,129,126,111,4,152 ; vmovdqu (%r8,%r11,4),%ymm0
- DB 196,129,126,111,76,152,32 ; vmovdqu 0x20(%r8,%r11,4),%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,228 ; ja 23213 <_sk_load_8888_hsw_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,30,1,0,0 ; lea 0x11e(%rip),%r10 # 23358 <_sk_load_8888_hsw_8bit+0x16e>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,110,4,152 ; vmovd (%r8,%r11,4),%xmm0
- DB 235,200 ; jmp 23213 <_sk_load_8888_hsw_8bit+0x29>
- DB 196,129,121,110,68,152,8 ; vmovd 0x8(%r8,%r11,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,192,4 ; vpblendd $0x4,%ymm0,%ymm1,%ymm0
- DB 196,130,121,53,36,152 ; vpmovzxdq (%r8,%r11,4),%xmm4
- DB 197,249,112,228,232 ; vpshufd $0xe8,%xmm4,%xmm4
- DB 196,227,125,2,196,3 ; vpblendd $0x3,%ymm4,%ymm0,%ymm0
- DB 235,159 ; jmp 23213 <_sk_load_8888_hsw_8bit+0x29>
- DB 196,129,121,110,68,152,24 ; vmovd 0x18(%r8,%r11,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,192,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm0
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,131,89,34,100,152,20,1 ; vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
- DB 196,227,125,56,196,1 ; vinserti128 $0x1,%xmm4,%ymm0,%ymm0
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,131,89,34,100,152,16,0 ; vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
- DB 196,227,125,56,196,1 ; vinserti128 $0x1,%xmm4,%ymm0,%ymm0
- DB 196,129,122,111,36,152 ; vmovdqu (%r8,%r11,4),%xmm4
- DB 196,227,93,2,192,240 ; vpblendd $0xf0,%ymm0,%ymm4,%ymm0
- DB 233,80,255,255,255 ; jmpq 23213 <_sk_load_8888_hsw_8bit+0x29>
- DB 196,129,121,110,68,152,40 ; vmovd 0x28(%r8,%r11,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,200,4 ; vpblendd $0x4,%ymm0,%ymm1,%ymm1
- DB 196,131,113,34,68,152,36,1 ; vpinsrd $0x1,0x24(%r8,%r11,4),%xmm1,%xmm0
- DB 196,227,117,2,200,15 ; vpblendd $0xf,%ymm0,%ymm1,%ymm1
- DB 196,129,121,110,68,152,32 ; vmovd 0x20(%r8,%r11,4),%xmm0
- DB 196,227,117,2,200,1 ; vpblendd $0x1,%ymm0,%ymm1,%ymm1
- DB 196,129,126,111,4,152 ; vmovdqu (%r8,%r11,4),%ymm0
- DB 233,20,255,255,255 ; jmpq 23213 <_sk_load_8888_hsw_8bit+0x29>
- DB 196,129,121,110,68,152,56 ; vmovd 0x38(%r8,%r11,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,200,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm1
- DB 196,227,125,57,200,1 ; vextracti128 $0x1,%ymm1,%xmm0
- DB 196,131,121,34,68,152,52,1 ; vpinsrd $0x1,0x34(%r8,%r11,4),%xmm0,%xmm0
- DB 196,227,117,56,200,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm1
- DB 196,227,125,57,200,1 ; vextracti128 $0x1,%ymm1,%xmm0
- DB 196,131,121,34,68,152,48,0 ; vpinsrd $0x0,0x30(%r8,%r11,4),%xmm0,%xmm0
- DB 196,227,117,56,200,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm1
- DB 196,129,126,111,4,152 ; vmovdqu (%r8,%r11,4),%ymm0
- DB 196,129,122,111,100,152,32 ; vmovdqu 0x20(%r8,%r11,4),%xmm4
- DB 196,227,93,2,201,240 ; vpblendd $0xf0,%ymm1,%ymm4,%ymm1
- DB 233,190,254,255,255 ; jmpq 23213 <_sk_load_8888_hsw_8bit+0x29>
- DB 15,31,0 ; nopl (%rax)
- DB 235,254 ; jmp 23358 <_sk_load_8888_hsw_8bit+0x16e>
- DB 255 ; (bad)
- DB 255,9 ; decl (%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,90,255 ; lcall *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,70,255 ; incl -0x1(%rsi)
- DB 255 ; (bad)
- DB 255,50 ; pushq (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,28,255 ; lcall *(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,156,255,255,255,143,255 ; lcall *-0x700001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,129,255,255,255,107 ; incl 0x6bffffff(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,167 ; mov $0xa7ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_8888_dst_hsw_8bit
-_sk_load_8888_dst_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 233c1 <_sk_load_8888_dst_hsw_8bit+0x2d>
- DB 196,129,126,111,20,152 ; vmovdqu (%r8,%r11,4),%ymm2
- DB 196,129,126,111,92,152,32 ; vmovdqu 0x20(%r8,%r11,4),%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,228 ; ja 233bd <_sk_load_8888_dst_hsw_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,28,1,0,0 ; lea 0x11c(%rip),%r10 # 23500 <_sk_load_8888_dst_hsw_8bit+0x16c>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,110,20,152 ; vmovd (%r8,%r11,4),%xmm2
- DB 235,200 ; jmp 233bd <_sk_load_8888_dst_hsw_8bit+0x29>
- DB 196,129,121,110,84,152,8 ; vmovd 0x8(%r8,%r11,4),%xmm2
- DB 196,226,121,89,210 ; vpbroadcastq %xmm2,%xmm2
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,227,101,2,210,4 ; vpblendd $0x4,%ymm2,%ymm3,%ymm2
- DB 196,130,121,53,36,152 ; vpmovzxdq (%r8,%r11,4),%xmm4
- DB 197,249,112,228,232 ; vpshufd $0xe8,%xmm4,%xmm4
- DB 196,227,109,2,212,3 ; vpblendd $0x3,%ymm4,%ymm2,%ymm2
- DB 235,159 ; jmp 233bd <_sk_load_8888_dst_hsw_8bit+0x29>
- DB 196,129,121,110,84,152,24 ; vmovd 0x18(%r8,%r11,4),%xmm2
- DB 196,226,125,89,210 ; vpbroadcastq %xmm2,%ymm2
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,227,101,2,210,64 ; vpblendd $0x40,%ymm2,%ymm3,%ymm2
- DB 196,227,125,57,212,1 ; vextracti128 $0x1,%ymm2,%xmm4
- DB 196,131,89,34,100,152,20,1 ; vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
- DB 196,227,109,56,212,1 ; vinserti128 $0x1,%xmm4,%ymm2,%ymm2
- DB 196,227,125,57,212,1 ; vextracti128 $0x1,%ymm2,%xmm4
- DB 196,131,89,34,100,152,16,0 ; vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
- DB 196,227,109,56,212,1 ; vinserti128 $0x1,%xmm4,%ymm2,%ymm2
- DB 196,129,122,111,36,152 ; vmovdqu (%r8,%r11,4),%xmm4
- DB 196,227,93,2,210,240 ; vpblendd $0xf0,%ymm2,%ymm4,%ymm2
- DB 233,80,255,255,255 ; jmpq 233bd <_sk_load_8888_dst_hsw_8bit+0x29>
- DB 196,129,121,110,84,152,40 ; vmovd 0x28(%r8,%r11,4),%xmm2
- DB 196,226,121,89,210 ; vpbroadcastq %xmm2,%xmm2
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,227,101,2,218,4 ; vpblendd $0x4,%ymm2,%ymm3,%ymm3
- DB 196,131,97,34,84,152,36,1 ; vpinsrd $0x1,0x24(%r8,%r11,4),%xmm3,%xmm2
- DB 196,227,101,2,218,15 ; vpblendd $0xf,%ymm2,%ymm3,%ymm3
- DB 196,129,121,110,84,152,32 ; vmovd 0x20(%r8,%r11,4),%xmm2
- DB 196,227,101,2,218,1 ; vpblendd $0x1,%ymm2,%ymm3,%ymm3
- DB 196,129,126,111,20,152 ; vmovdqu (%r8,%r11,4),%ymm2
- DB 233,20,255,255,255 ; jmpq 233bd <_sk_load_8888_dst_hsw_8bit+0x29>
- DB 196,129,121,110,84,152,56 ; vmovd 0x38(%r8,%r11,4),%xmm2
- DB 196,226,125,89,210 ; vpbroadcastq %xmm2,%ymm2
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,227,101,2,218,64 ; vpblendd $0x40,%ymm2,%ymm3,%ymm3
- DB 196,227,125,57,218,1 ; vextracti128 $0x1,%ymm3,%xmm2
- DB 196,131,105,34,84,152,52,1 ; vpinsrd $0x1,0x34(%r8,%r11,4),%xmm2,%xmm2
- DB 196,227,101,56,218,1 ; vinserti128 $0x1,%xmm2,%ymm3,%ymm3
- DB 196,227,125,57,218,1 ; vextracti128 $0x1,%ymm3,%xmm2
- DB 196,131,105,34,84,152,48,0 ; vpinsrd $0x0,0x30(%r8,%r11,4),%xmm2,%xmm2
- DB 196,227,101,56,218,1 ; vinserti128 $0x1,%xmm2,%ymm3,%ymm3
- DB 196,129,126,111,20,152 ; vmovdqu (%r8,%r11,4),%ymm2
- DB 196,129,122,111,100,152,32 ; vmovdqu 0x20(%r8,%r11,4),%xmm4
- DB 196,227,93,2,219,240 ; vpblendd $0xf0,%ymm3,%ymm4,%ymm3
- DB 233,190,254,255,255 ; jmpq 233bd <_sk_load_8888_dst_hsw_8bit+0x29>
- DB 144 ; nop
- DB 237 ; in (%dx),%eax
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,11 ; decl (%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,245 ; push %rbp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
- DB 255,72,255 ; decl -0x1(%rax)
- DB 255 ; (bad)
- DB 255,52,255 ; pushq (%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,158,255,255,255,145 ; lcall *-0x6e000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,131,255,255,255,109 ; incl 0x6dffffff(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,169 ; mov $0xa9ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_8888_hsw_8bit
-_sk_store_8888_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 23569 <_sk_store_8888_hsw_8bit+0x2d>
- DB 196,129,126,127,4,152 ; vmovdqu %ymm0,(%r8,%r11,4)
- DB 196,129,126,127,76,152,32 ; vmovdqu %ymm1,0x20(%r8,%r11,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,236 ; ja 23565 <_sk_store_8888_hsw_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,176,0,0,0 ; lea 0xb0(%rip),%r10 # 23634 <_sk_store_8888_hsw_8bit+0xf8>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,126,4,152 ; vmovd %xmm0,(%r8,%r11,4)
- DB 235,208 ; jmp 23565 <_sk_store_8888_hsw_8bit+0x29>
- DB 196,131,121,22,68,152,8,2 ; vpextrd $0x2,%xmm0,0x8(%r8,%r11,4)
- DB 196,129,121,214,4,152 ; vmovq %xmm0,(%r8,%r11,4)
- DB 235,192 ; jmp 23565 <_sk_store_8888_hsw_8bit+0x29>
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,131,121,22,100,152,24,2 ; vpextrd $0x2,%xmm4,0x18(%r8,%r11,4)
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,131,121,22,100,152,20,1 ; vpextrd $0x1,%xmm4,0x14(%r8,%r11,4)
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,129,121,126,100,152,16 ; vmovd %xmm4,0x10(%r8,%r11,4)
- DB 196,129,122,127,4,152 ; vmovdqu %xmm0,(%r8,%r11,4)
- DB 235,143 ; jmp 23565 <_sk_store_8888_hsw_8bit+0x29>
- DB 196,131,121,22,76,152,40,2 ; vpextrd $0x2,%xmm1,0x28(%r8,%r11,4)
- DB 196,131,121,22,76,152,36,1 ; vpextrd $0x1,%xmm1,0x24(%r8,%r11,4)
- DB 196,129,121,126,76,152,32 ; vmovd %xmm1,0x20(%r8,%r11,4)
- DB 196,129,126,127,4,152 ; vmovdqu %ymm0,(%r8,%r11,4)
- DB 233,109,255,255,255 ; jmpq 23565 <_sk_store_8888_hsw_8bit+0x29>
- DB 196,227,125,57,204,1 ; vextracti128 $0x1,%ymm1,%xmm4
- DB 196,131,121,22,100,152,56,2 ; vpextrd $0x2,%xmm4,0x38(%r8,%r11,4)
- DB 196,227,125,57,204,1 ; vextracti128 $0x1,%ymm1,%xmm4
- DB 196,131,121,22,100,152,52,1 ; vpextrd $0x1,%xmm4,0x34(%r8,%r11,4)
- DB 196,227,125,57,204,1 ; vextracti128 $0x1,%ymm1,%xmm4
- DB 196,129,121,126,100,152,48 ; vmovd %xmm4,0x30(%r8,%r11,4)
- DB 196,129,126,127,4,152 ; vmovdqu %ymm0,(%r8,%r11,4)
- DB 196,129,122,127,76,152,32 ; vmovdqu %xmm1,0x20(%r8,%r11,4)
- DB 233,50,255,255,255 ; jmpq 23565 <_sk_store_8888_hsw_8bit+0x29>
- DB 144 ; nop
- DB 89 ; pop %rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,105,255 ; ljmp *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,97,255 ; jmpq *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,154,255,255,255,141 ; lcall *-0x72000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,255 ; jg 23649 <_sk_store_8888_hsw_8bit+0x10d>
- DB 255 ; (bad)
- DB 255,113,255 ; pushq -0x1(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 185,255,255,255,178 ; mov $0xb2ffffff,%ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,170,255,255,255,162 ; ljmp *-0x5d000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,224 ; jmpq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,196 ; inc %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_hsw_8bit
-_sk_load_bgra_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,35 ; jne 236af <_sk_load_bgra_hsw_8bit+0x3f>
- DB 196,129,126,111,4,152 ; vmovdqu (%r8,%r11,4),%ymm0
- DB 196,129,126,111,76,152,32 ; vmovdqu 0x20(%r8,%r11,4),%ymm1
- DB 197,253,111,37,31,5,1,0 ; vmovdqa 0x1051f(%rip),%ymm4 # 33bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x78c>
- DB 196,226,125,0,196 ; vpshufb %ymm4,%ymm0,%ymm0
- DB 196,226,117,0,204 ; vpshufb %ymm4,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,210 ; ja 23699 <_sk_load_bgra_hsw_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,30,1,0,0 ; lea 0x11e(%rip),%r10 # 237f0 <_sk_load_bgra_hsw_8bit+0x180>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,110,4,152 ; vmovd (%r8,%r11,4),%xmm0
- DB 235,182 ; jmp 23699 <_sk_load_bgra_hsw_8bit+0x29>
- DB 196,129,121,110,68,152,8 ; vmovd 0x8(%r8,%r11,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,192,4 ; vpblendd $0x4,%ymm0,%ymm1,%ymm0
- DB 196,130,121,53,36,152 ; vpmovzxdq (%r8,%r11,4),%xmm4
- DB 197,249,112,228,232 ; vpshufd $0xe8,%xmm4,%xmm4
- DB 196,227,125,2,196,3 ; vpblendd $0x3,%ymm4,%ymm0,%ymm0
- DB 235,141 ; jmp 23699 <_sk_load_bgra_hsw_8bit+0x29>
- DB 196,129,121,110,68,152,24 ; vmovd 0x18(%r8,%r11,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,192,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm0
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,131,89,34,100,152,20,1 ; vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
- DB 196,227,125,56,196,1 ; vinserti128 $0x1,%xmm4,%ymm0,%ymm0
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,131,89,34,100,152,16,0 ; vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
- DB 196,227,125,56,196,1 ; vinserti128 $0x1,%xmm4,%ymm0,%ymm0
- DB 196,129,122,111,36,152 ; vmovdqu (%r8,%r11,4),%xmm4
- DB 196,227,93,2,192,240 ; vpblendd $0xf0,%ymm0,%ymm4,%ymm0
- DB 233,62,255,255,255 ; jmpq 23699 <_sk_load_bgra_hsw_8bit+0x29>
- DB 196,129,121,110,68,152,40 ; vmovd 0x28(%r8,%r11,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,200,4 ; vpblendd $0x4,%ymm0,%ymm1,%ymm1
- DB 196,131,113,34,68,152,36,1 ; vpinsrd $0x1,0x24(%r8,%r11,4),%xmm1,%xmm0
- DB 196,227,117,2,200,15 ; vpblendd $0xf,%ymm0,%ymm1,%ymm1
- DB 196,129,121,110,68,152,32 ; vmovd 0x20(%r8,%r11,4),%xmm0
- DB 196,227,117,2,200,1 ; vpblendd $0x1,%ymm0,%ymm1,%ymm1
- DB 196,129,126,111,4,152 ; vmovdqu (%r8,%r11,4),%ymm0
- DB 233,2,255,255,255 ; jmpq 23699 <_sk_load_bgra_hsw_8bit+0x29>
- DB 196,129,121,110,68,152,56 ; vmovd 0x38(%r8,%r11,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,200,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm1
- DB 196,227,125,57,200,1 ; vextracti128 $0x1,%ymm1,%xmm0
- DB 196,131,121,34,68,152,52,1 ; vpinsrd $0x1,0x34(%r8,%r11,4),%xmm0,%xmm0
- DB 196,227,117,56,200,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm1
- DB 196,227,125,57,200,1 ; vextracti128 $0x1,%ymm1,%xmm0
- DB 196,131,121,34,68,152,48,0 ; vpinsrd $0x0,0x30(%r8,%r11,4),%xmm0,%xmm0
- DB 196,227,117,56,200,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm1
- DB 196,129,126,111,4,152 ; vmovdqu (%r8,%r11,4),%ymm0
- DB 196,129,122,111,100,152,32 ; vmovdqu 0x20(%r8,%r11,4),%xmm4
- DB 196,227,93,2,201,240 ; vpblendd $0xf0,%ymm1,%ymm4,%ymm1
- DB 233,172,254,255,255 ; jmpq 23699 <_sk_load_bgra_hsw_8bit+0x29>
- DB 15,31,0 ; nopl (%rax)
- DB 235,254 ; jmp 237f0 <_sk_load_bgra_hsw_8bit+0x180>
- DB 255 ; (bad)
- DB 255,9 ; decl (%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,90,255 ; lcall *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,70,255 ; incl -0x1(%rsi)
- DB 255 ; (bad)
- DB 255,50 ; pushq (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,28,255 ; lcall *(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,156,255,255,255,143,255 ; lcall *-0x700001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,129,255,255,255,107 ; incl 0x6bffffff(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,167 ; mov $0xa7ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_dst_hsw_8bit
-_sk_load_bgra_dst_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,35 ; jne 2386b <_sk_load_bgra_dst_hsw_8bit+0x3f>
- DB 196,129,126,111,20,152 ; vmovdqu (%r8,%r11,4),%ymm2
- DB 196,129,126,111,92,152,32 ; vmovdqu 0x20(%r8,%r11,4),%ymm3
- DB 197,253,111,37,131,3,1,0 ; vmovdqa 0x10383(%rip),%ymm4 # 33be0 <_sk_srcover_rgba_8888_sse2_lowp+0x7ac>
- DB 196,226,109,0,212 ; vpshufb %ymm4,%ymm2,%ymm2
- DB 196,226,101,0,220 ; vpshufb %ymm4,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,210 ; ja 23855 <_sk_load_bgra_dst_hsw_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,30,1,0,0 ; lea 0x11e(%rip),%r10 # 239ac <_sk_load_bgra_dst_hsw_8bit+0x180>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,110,20,152 ; vmovd (%r8,%r11,4),%xmm2
- DB 235,182 ; jmp 23855 <_sk_load_bgra_dst_hsw_8bit+0x29>
- DB 196,129,121,110,84,152,8 ; vmovd 0x8(%r8,%r11,4),%xmm2
- DB 196,226,121,89,210 ; vpbroadcastq %xmm2,%xmm2
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,227,101,2,210,4 ; vpblendd $0x4,%ymm2,%ymm3,%ymm2
- DB 196,130,121,53,36,152 ; vpmovzxdq (%r8,%r11,4),%xmm4
- DB 197,249,112,228,232 ; vpshufd $0xe8,%xmm4,%xmm4
- DB 196,227,109,2,212,3 ; vpblendd $0x3,%ymm4,%ymm2,%ymm2
- DB 235,141 ; jmp 23855 <_sk_load_bgra_dst_hsw_8bit+0x29>
- DB 196,129,121,110,84,152,24 ; vmovd 0x18(%r8,%r11,4),%xmm2
- DB 196,226,125,89,210 ; vpbroadcastq %xmm2,%ymm2
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,227,101,2,210,64 ; vpblendd $0x40,%ymm2,%ymm3,%ymm2
- DB 196,227,125,57,212,1 ; vextracti128 $0x1,%ymm2,%xmm4
- DB 196,131,89,34,100,152,20,1 ; vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
- DB 196,227,109,56,212,1 ; vinserti128 $0x1,%xmm4,%ymm2,%ymm2
- DB 196,227,125,57,212,1 ; vextracti128 $0x1,%ymm2,%xmm4
- DB 196,131,89,34,100,152,16,0 ; vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
- DB 196,227,109,56,212,1 ; vinserti128 $0x1,%xmm4,%ymm2,%ymm2
- DB 196,129,122,111,36,152 ; vmovdqu (%r8,%r11,4),%xmm4
- DB 196,227,93,2,210,240 ; vpblendd $0xf0,%ymm2,%ymm4,%ymm2
- DB 233,62,255,255,255 ; jmpq 23855 <_sk_load_bgra_dst_hsw_8bit+0x29>
- DB 196,129,121,110,84,152,40 ; vmovd 0x28(%r8,%r11,4),%xmm2
- DB 196,226,121,89,210 ; vpbroadcastq %xmm2,%xmm2
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,227,101,2,218,4 ; vpblendd $0x4,%ymm2,%ymm3,%ymm3
- DB 196,131,97,34,84,152,36,1 ; vpinsrd $0x1,0x24(%r8,%r11,4),%xmm3,%xmm2
- DB 196,227,101,2,218,15 ; vpblendd $0xf,%ymm2,%ymm3,%ymm3
- DB 196,129,121,110,84,152,32 ; vmovd 0x20(%r8,%r11,4),%xmm2
- DB 196,227,101,2,218,1 ; vpblendd $0x1,%ymm2,%ymm3,%ymm3
- DB 196,129,126,111,20,152 ; vmovdqu (%r8,%r11,4),%ymm2
- DB 233,2,255,255,255 ; jmpq 23855 <_sk_load_bgra_dst_hsw_8bit+0x29>
- DB 196,129,121,110,84,152,56 ; vmovd 0x38(%r8,%r11,4),%xmm2
- DB 196,226,125,89,210 ; vpbroadcastq %xmm2,%ymm2
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,227,101,2,218,64 ; vpblendd $0x40,%ymm2,%ymm3,%ymm3
- DB 196,227,125,57,218,1 ; vextracti128 $0x1,%ymm3,%xmm2
- DB 196,131,105,34,84,152,52,1 ; vpinsrd $0x1,0x34(%r8,%r11,4),%xmm2,%xmm2
- DB 196,227,101,56,218,1 ; vinserti128 $0x1,%xmm2,%ymm3,%ymm3
- DB 196,227,125,57,218,1 ; vextracti128 $0x1,%ymm3,%xmm2
- DB 196,131,105,34,84,152,48,0 ; vpinsrd $0x0,0x30(%r8,%r11,4),%xmm2,%xmm2
- DB 196,227,101,56,218,1 ; vinserti128 $0x1,%xmm2,%ymm3,%ymm3
- DB 196,129,126,111,20,152 ; vmovdqu (%r8,%r11,4),%ymm2
- DB 196,129,122,111,100,152,32 ; vmovdqu 0x20(%r8,%r11,4),%xmm4
- DB 196,227,93,2,219,240 ; vpblendd $0xf0,%ymm3,%ymm4,%ymm3
- DB 233,172,254,255,255 ; jmpq 23855 <_sk_load_bgra_dst_hsw_8bit+0x29>
- DB 15,31,0 ; nopl (%rax)
- DB 235,254 ; jmp 239ac <_sk_load_bgra_dst_hsw_8bit+0x180>
- DB 255 ; (bad)
- DB 255,9 ; decl (%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,90,255 ; lcall *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,70,255 ; incl -0x1(%rsi)
- DB 255 ; (bad)
- DB 255,50 ; pushq (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,28,255 ; lcall *(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,156,255,255,255,143,255 ; lcall *-0x700001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,129,255,255,255,107 ; incl 0x6bffffff(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,167 ; mov $0xa7ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_bgra_hsw_8bit
-_sk_store_bgra_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 197,253,111,37,249,1,1,0 ; vmovdqa 0x101f9(%rip),%ymm4 # 33c00 <_sk_srcover_rgba_8888_sse2_lowp+0x7cc>
- DB 196,226,117,0,236 ; vpshufb %ymm4,%ymm1,%ymm5
- DB 196,226,125,0,228 ; vpshufb %ymm4,%ymm0,%ymm4
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 23a27 <_sk_store_bgra_hsw_8bit+0x3f>
- DB 196,129,126,127,36,152 ; vmovdqu %ymm4,(%r8,%r11,4)
- DB 196,129,126,127,108,152,32 ; vmovdqu %ymm5,0x20(%r8,%r11,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,236 ; ja 23a23 <_sk_store_bgra_hsw_8bit+0x3b>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,178,0,0,0 ; lea 0xb2(%rip),%r10 # 23af4 <_sk_store_bgra_hsw_8bit+0x10c>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,126,36,152 ; vmovd %xmm4,(%r8,%r11,4)
- DB 235,208 ; jmp 23a23 <_sk_store_bgra_hsw_8bit+0x3b>
- DB 196,131,121,22,100,152,8,2 ; vpextrd $0x2,%xmm4,0x8(%r8,%r11,4)
- DB 196,129,121,214,36,152 ; vmovq %xmm4,(%r8,%r11,4)
- DB 235,192 ; jmp 23a23 <_sk_store_bgra_hsw_8bit+0x3b>
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,131,121,22,108,152,24,2 ; vpextrd $0x2,%xmm5,0x18(%r8,%r11,4)
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,131,121,22,108,152,20,1 ; vpextrd $0x1,%xmm5,0x14(%r8,%r11,4)
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,129,121,126,108,152,16 ; vmovd %xmm5,0x10(%r8,%r11,4)
- DB 196,129,122,127,36,152 ; vmovdqu %xmm4,(%r8,%r11,4)
- DB 235,143 ; jmp 23a23 <_sk_store_bgra_hsw_8bit+0x3b>
- DB 196,131,121,22,108,152,40,2 ; vpextrd $0x2,%xmm5,0x28(%r8,%r11,4)
- DB 196,131,121,22,108,152,36,1 ; vpextrd $0x1,%xmm5,0x24(%r8,%r11,4)
- DB 196,129,121,126,108,152,32 ; vmovd %xmm5,0x20(%r8,%r11,4)
- DB 196,129,126,127,36,152 ; vmovdqu %ymm4,(%r8,%r11,4)
- DB 233,109,255,255,255 ; jmpq 23a23 <_sk_store_bgra_hsw_8bit+0x3b>
- DB 196,227,125,57,238,1 ; vextracti128 $0x1,%ymm5,%xmm6
- DB 196,131,121,22,116,152,56,2 ; vpextrd $0x2,%xmm6,0x38(%r8,%r11,4)
- DB 196,227,125,57,238,1 ; vextracti128 $0x1,%ymm5,%xmm6
- DB 196,131,121,22,116,152,52,1 ; vpextrd $0x1,%xmm6,0x34(%r8,%r11,4)
- DB 196,227,125,57,238,1 ; vextracti128 $0x1,%ymm5,%xmm6
- DB 196,129,121,126,116,152,48 ; vmovd %xmm6,0x30(%r8,%r11,4)
- DB 196,129,126,127,36,152 ; vmovdqu %ymm4,(%r8,%r11,4)
- DB 196,129,122,127,108,152,32 ; vmovdqu %xmm5,0x20(%r8,%r11,4)
- DB 233,50,255,255,255 ; jmpq 23a23 <_sk_store_bgra_hsw_8bit+0x3b>
- DB 15,31,0 ; nopl (%rax)
- DB 87 ; push %rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,103,255 ; jmpq *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255,95,255 ; lcall *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255,152,255,255,255,139 ; lcall *-0x74000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 125,255 ; jge 23b09 <_sk_store_bgra_hsw_8bit+0x121>
- DB 255 ; (bad)
- DB 255,111,255 ; ljmp *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255,183,255,255,255,176 ; pushq -0x4f000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,160 ; ljmp *-0x5f000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 235,255 ; jmp 23b21 <_sk_store_bgra_hsw_8bit+0x139>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 222,255 ; fdivrp %st,%st(7)
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_565_hsw_8bit
-_sk_store_565_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 196,226,125,88,37,233,6,1,0 ; vpbroadcastd 0x106e9(%rip),%ymm4 # 34238 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
- DB 197,253,219,236 ; vpand %ymm4,%ymm0,%ymm5
- DB 197,245,219,228 ; vpand %ymm4,%ymm1,%ymm4
- DB 197,221,114,244,8 ; vpslld $0x8,%ymm4,%ymm4
- DB 197,213,114,245,8 ; vpslld $0x8,%ymm5,%ymm5
- DB 196,226,125,88,53,210,6,1,0 ; vpbroadcastd 0x106d2(%rip),%ymm6 # 3423c <_sk_srcover_rgba_8888_sse2_lowp+0xe08>
- DB 197,253,219,254 ; vpand %ymm6,%ymm0,%ymm7
- DB 197,245,219,246 ; vpand %ymm6,%ymm1,%ymm6
- DB 197,205,114,214,5 ; vpsrld $0x5,%ymm6,%ymm6
- DB 197,221,235,230 ; vpor %ymm6,%ymm4,%ymm4
- DB 197,205,114,215,5 ; vpsrld $0x5,%ymm7,%ymm6
- DB 197,213,235,238 ; vpor %ymm6,%ymm5,%ymm5
- DB 196,226,125,88,53,179,6,1,0 ; vpbroadcastd 0x106b3(%rip),%ymm6 # 34240 <_sk_srcover_rgba_8888_sse2_lowp+0xe0c>
- DB 197,245,219,254 ; vpand %ymm6,%ymm1,%ymm7
- DB 197,253,219,246 ; vpand %ymm6,%ymm0,%ymm6
- DB 197,205,114,214,19 ; vpsrld $0x13,%ymm6,%ymm6
- DB 197,213,235,238 ; vpor %ymm6,%ymm5,%ymm5
- DB 197,205,114,215,19 ; vpsrld $0x13,%ymm7,%ymm6
- DB 197,221,235,230 ; vpor %ymm6,%ymm4,%ymm4
- DB 197,253,111,53,113,0,1,0 ; vmovdqa 0x10071(%rip),%ymm6 # 33c20 <_sk_srcover_rgba_8888_sse2_lowp+0x7ec>
- DB 196,226,85,0,238 ; vpshufb %ymm6,%ymm5,%ymm5
- DB 196,227,253,0,237,232 ; vpermq $0xe8,%ymm5,%ymm5
- DB 196,226,93,0,230 ; vpshufb %ymm6,%ymm4,%ymm4
- DB 196,227,253,0,228,232 ; vpermq $0xe8,%ymm4,%ymm4
- DB 196,227,85,56,228,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 23bda <_sk_store_565_hsw_8bit+0xaa>
- DB 196,129,126,127,36,88 ; vmovdqu %ymm4,(%r8,%r11,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,236 ; ja 23bd6 <_sk_store_565_hsw_8bit+0xa6>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,179,0,0,0 ; lea 0xb3(%rip),%r10 # 23ca8 <_sk_store_565_hsw_8bit+0x178>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,131,121,21,36,88,0 ; vpextrw $0x0,%xmm4,(%r8,%r11,2)
- DB 235,207 ; jmp 23bd6 <_sk_store_565_hsw_8bit+0xa6>
- DB 196,131,121,21,100,88,4,2 ; vpextrw $0x2,%xmm4,0x4(%r8,%r11,2)
- DB 196,129,121,126,36,88 ; vmovd %xmm4,(%r8,%r11,2)
- DB 235,191 ; jmp 23bd6 <_sk_store_565_hsw_8bit+0xa6>
- DB 196,131,121,21,100,88,12,6 ; vpextrw $0x6,%xmm4,0xc(%r8,%r11,2)
- DB 196,131,121,21,100,88,10,5 ; vpextrw $0x5,%xmm4,0xa(%r8,%r11,2)
- DB 196,131,121,21,100,88,8,4 ; vpextrw $0x4,%xmm4,0x8(%r8,%r11,2)
- DB 196,129,121,214,36,88 ; vmovq %xmm4,(%r8,%r11,2)
- DB 235,159 ; jmp 23bd6 <_sk_store_565_hsw_8bit+0xa6>
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,131,121,21,108,88,20,2 ; vpextrw $0x2,%xmm5,0x14(%r8,%r11,2)
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,131,121,21,108,88,18,1 ; vpextrw $0x1,%xmm5,0x12(%r8,%r11,2)
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,131,121,21,108,88,16,0 ; vpextrw $0x0,%xmm5,0x10(%r8,%r11,2)
- DB 235,55 ; jmp 23c9a <_sk_store_565_hsw_8bit+0x16a>
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,131,121,21,108,88,28,6 ; vpextrw $0x6,%xmm5,0x1c(%r8,%r11,2)
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,131,121,21,108,88,26,5 ; vpextrw $0x5,%xmm5,0x1a(%r8,%r11,2)
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,131,121,21,108,88,24,4 ; vpextrw $0x4,%xmm5,0x18(%r8,%r11,2)
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,129,121,214,108,88,16 ; vmovq %xmm5,0x10(%r8,%r11,2)
- DB 196,129,122,127,36,88 ; vmovdqu %xmm4,(%r8,%r11,2)
- DB 233,49,255,255,255 ; jmpq 23bd6 <_sk_store_565_hsw_8bit+0xa6>
- DB 15,31,0 ; nopl (%rax)
- DB 86 ; push %rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,103,255 ; jmpq *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255,95,255 ; lcall *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255,135,255,255,255,127 ; incl 0x7fffffff(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,119,255 ; pushq -0x1(%rdi)
- DB 255 ; (bad)
- DB 255,111,255 ; ljmp *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255,242 ; push %rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,171,255,255,255,157 ; ljmp *-0x62000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,143,255,255,255,229 ; decl -0x1a000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,215 ; callq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 187 ; .byte 0xbb
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_565_dst_hsw_8bit
-_sk_load_565_dst_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,222,0,0,0 ; jne 23de1 <_sk_load_565_dst_hsw_8bit+0xfd>
- DB 196,129,126,111,20,88 ; vmovdqu (%r8,%r11,2),%ymm2
- DB 196,227,125,57,211,1 ; vextracti128 $0x1,%ymm2,%xmm3
- DB 196,226,125,51,219 ; vpmovzxwd %xmm3,%ymm3
- DB 196,226,125,51,210 ; vpmovzxwd %xmm2,%ymm2
- DB 196,226,125,88,37,254,3,1,0 ; vpbroadcastd 0x103fe(%rip),%ymm4 # 34120 <_sk_srcover_rgba_8888_sse2_lowp+0xcec>
- DB 197,237,219,236 ; vpand %ymm4,%ymm2,%ymm5
- DB 197,229,219,228 ; vpand %ymm4,%ymm3,%ymm4
- DB 197,221,114,212,8 ; vpsrld $0x8,%ymm4,%ymm4
- DB 197,213,114,213,8 ; vpsrld $0x8,%ymm5,%ymm5
- DB 196,226,125,88,53,243,3,1,0 ; vpbroadcastd 0x103f3(%rip),%ymm6 # 34130 <_sk_srcover_rgba_8888_sse2_lowp+0xcfc>
- DB 197,237,219,254 ; vpand %ymm6,%ymm2,%ymm7
- DB 197,229,219,246 ; vpand %ymm6,%ymm3,%ymm6
- DB 197,205,114,246,19 ; vpslld $0x13,%ymm6,%ymm6
- DB 197,221,235,230 ; vpor %ymm6,%ymm4,%ymm4
- DB 197,205,114,247,19 ; vpslld $0x13,%ymm7,%ymm6
- DB 197,213,235,238 ; vpor %ymm6,%ymm5,%ymm5
- DB 197,205,114,212,5 ; vpsrld $0x5,%ymm4,%ymm6
- DB 197,197,114,213,5 ; vpsrld $0x5,%ymm5,%ymm7
- DB 196,98,125,88,5,218,4,1,0 ; vpbroadcastd 0x104da(%rip),%ymm8 # 34244 <_sk_srcover_rgba_8888_sse2_lowp+0xe10>
- DB 196,193,69,219,248 ; vpand %ymm8,%ymm7,%ymm7
- DB 196,193,77,219,240 ; vpand %ymm8,%ymm6,%ymm6
- DB 196,98,125,88,5,171,3,1,0 ; vpbroadcastd 0x103ab(%rip),%ymm8 # 34128 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
- DB 196,65,101,219,200 ; vpand %ymm8,%ymm3,%ymm9
- DB 196,65,109,219,192 ; vpand %ymm8,%ymm2,%ymm8
- DB 196,193,61,114,240,5 ; vpslld $0x5,%ymm8,%ymm8
- DB 196,193,53,114,241,5 ; vpslld $0x5,%ymm9,%ymm9
- DB 196,98,125,88,21,172,4,1,0 ; vpbroadcastd 0x104ac(%rip),%ymm10 # 34248 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
- DB 196,193,101,219,218 ; vpand %ymm10,%ymm3,%ymm3
- DB 196,193,109,219,210 ; vpand %ymm10,%ymm2,%ymm2
- DB 197,237,114,210,1 ; vpsrld $0x1,%ymm2,%ymm2
- DB 196,193,109,235,208 ; vpor %ymm8,%ymm2,%ymm2
- DB 197,229,114,211,1 ; vpsrld $0x1,%ymm3,%ymm3
- DB 196,193,101,235,217 ; vpor %ymm9,%ymm3,%ymm3
- DB 196,98,125,88,5,137,4,1,0 ; vpbroadcastd 0x10489(%rip),%ymm8 # 3424c <_sk_srcover_rgba_8888_sse2_lowp+0xe18>
- DB 197,237,235,213 ; vpor %ymm5,%ymm2,%ymm2
- DB 197,229,235,220 ; vpor %ymm4,%ymm3,%ymm3
- DB 196,193,109,235,208 ; vpor %ymm8,%ymm2,%ymm2
- DB 197,197,235,210 ; vpor %ymm2,%ymm7,%ymm2
- DB 196,193,101,235,216 ; vpor %ymm8,%ymm3,%ymm3
- DB 197,205,235,219 ; vpor %ymm3,%ymm6,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 15,135,16,255,255,255 ; ja 23d09 <_sk_load_565_dst_hsw_8bit+0x25>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,28,1,0,0 ; lea 0x11c(%rip),%r10 # 23f20 <_sk_load_565_dst_hsw_8bit+0x23c>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,183,4,88 ; movzwl (%r8,%r11,2),%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 233,238,254,255,255 ; jmpq 23d09 <_sk_load_565_dst_hsw_8bit+0x25>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,129,105,196,92,88,4,2 ; vpinsrw $0x2,0x4(%r8,%r11,2),%xmm2,%xmm3
- DB 196,227,101,56,210,1 ; vinserti128 $0x1,%xmm2,%ymm3,%ymm2
- DB 196,129,121,110,28,88 ; vmovd (%r8,%r11,2),%xmm3
- DB 196,227,109,2,211,1 ; vpblendd $0x1,%ymm3,%ymm2,%ymm2
- DB 233,203,254,255,255 ; jmpq 23d09 <_sk_load_565_dst_hsw_8bit+0x25>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,129,105,196,92,88,12,6 ; vpinsrw $0x6,0xc(%r8,%r11,2),%xmm2,%xmm3
- DB 196,227,101,56,210,1 ; vinserti128 $0x1,%xmm2,%ymm3,%ymm2
- DB 196,129,105,196,92,88,10,5 ; vpinsrw $0x5,0xa(%r8,%r11,2),%xmm2,%xmm3
- DB 196,227,109,2,211,15 ; vpblendd $0xf,%ymm3,%ymm2,%ymm2
- DB 196,129,105,196,92,88,8,4 ; vpinsrw $0x4,0x8(%r8,%r11,2),%xmm2,%xmm3
- DB 196,227,109,2,211,15 ; vpblendd $0xf,%ymm3,%ymm2,%ymm2
- DB 196,129,122,126,28,88 ; vmovq (%r8,%r11,2),%xmm3
- DB 196,227,109,2,211,3 ; vpblendd $0x3,%ymm3,%ymm2,%ymm2
- DB 233,140,254,255,255 ; jmpq 23d09 <_sk_load_565_dst_hsw_8bit+0x25>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,129,105,196,92,88,20,2 ; vpinsrw $0x2,0x14(%r8,%r11,2),%xmm2,%xmm3
- DB 196,227,109,56,211,1 ; vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,227,125,57,211,1 ; vextracti128 $0x1,%ymm2,%xmm3
- DB 196,129,97,196,92,88,18,1 ; vpinsrw $0x1,0x12(%r8,%r11,2),%xmm3,%xmm3
- DB 196,227,109,56,211,1 ; vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,227,125,57,211,1 ; vextracti128 $0x1,%ymm2,%xmm3
- DB 196,129,97,196,92,88,16,0 ; vpinsrw $0x0,0x10(%r8,%r11,2),%xmm3,%xmm3
- DB 196,227,109,56,211,1 ; vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,129,122,111,28,88 ; vmovdqu (%r8,%r11,2),%xmm3
- DB 196,227,101,2,210,240 ; vpblendd $0xf0,%ymm2,%ymm3,%ymm2
- DB 233,65,254,255,255 ; jmpq 23d09 <_sk_load_565_dst_hsw_8bit+0x25>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,129,105,196,92,88,28,6 ; vpinsrw $0x6,0x1c(%r8,%r11,2),%xmm2,%xmm3
- DB 196,227,109,56,211,1 ; vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,227,125,57,211,1 ; vextracti128 $0x1,%ymm2,%xmm3
- DB 196,129,97,196,92,88,26,5 ; vpinsrw $0x5,0x1a(%r8,%r11,2),%xmm3,%xmm3
- DB 196,227,109,56,211,1 ; vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,227,125,57,211,1 ; vextracti128 $0x1,%ymm2,%xmm3
- DB 196,129,97,196,92,88,24,4 ; vpinsrw $0x4,0x18(%r8,%r11,2),%xmm3,%xmm3
- DB 196,227,109,56,211,1 ; vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,129,122,126,92,88,16 ; vmovq 0x10(%r8,%r11,2),%xmm3
- DB 196,129,122,111,36,88 ; vmovdqu (%r8,%r11,2),%xmm4
- DB 196,227,93,56,219,1 ; vinserti128 $0x1,%xmm3,%ymm4,%ymm3
- DB 196,227,101,2,210,192 ; vpblendd $0xc0,%ymm2,%ymm3,%ymm2
- DB 233,233,253,255,255 ; jmpq 23d09 <_sk_load_565_dst_hsw_8bit+0x25>
- DB 237 ; in (%dx),%eax
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,251 ; decl -0x4000001(%rip) # fffffffffc023f28 <_sk_srcover_rgba_8888_sse2_lowp+0xfffffffffbff0af4>
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,76,255,255 ; decl -0x1(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 62,255 ; ds (bad)
- DB 255 ; (bad)
- DB 255,48 ; pushq (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,151,255,255,255,131 ; callq *-0x7c000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,111,255 ; ljmp *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255,93,255 ; lcall *-0x1(%rbp)
- DB 255 ; (bad)
- DB 255,226 ; jmpq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,206 ; dec %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 186,255,255,255,168 ; mov $0xa8ffffff,%edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_hsw_8bit
-_sk_load_a8_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,35 ; jne 23f97 <_sk_load_a8_hsw_8bit+0x3b>
- DB 196,129,122,111,4,24 ; vmovdqu (%r8,%r11,1),%xmm0
- DB 197,249,112,200,78 ; vpshufd $0x4e,%xmm0,%xmm1
- DB 196,226,125,49,201 ; vpmovzxbd %xmm1,%ymm1
- DB 196,226,125,49,192 ; vpmovzxbd %xmm0,%ymm0
- DB 197,253,114,240,24 ; vpslld $0x18,%ymm0,%ymm0
- DB 197,245,114,241,24 ; vpslld $0x18,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,207 ; ja 23f7a <_sk_load_a8_hsw_8bit+0x1e>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,194,0,0,0 ; lea 0xc2(%rip),%r10 # 24078 <_sk_load_a8_hsw_8bit+0x11c>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 235,176 ; jmp 23f7a <_sk_load_a8_hsw_8bit+0x1e>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,131,121,32,68,24,2,2 ; vpinsrb $0x2,0x2(%r8,%r11,1),%xmm0,%xmm0
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 197,249,110,200 ; vmovd %eax,%xmm1
- DB 196,227,121,14,193,1 ; vpblendw $0x1,%xmm1,%xmm0,%xmm0
- DB 235,147 ; jmp 23f7a <_sk_load_a8_hsw_8bit+0x1e>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,131,121,32,68,24,6,6 ; vpinsrb $0x6,0x6(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,5,5 ; vpinsrb $0x5,0x5(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,4,4 ; vpinsrb $0x4,0x4(%r8,%r11,1),%xmm0,%xmm0
- DB 196,129,121,110,12,24 ; vmovd (%r8,%r11,1),%xmm1
- DB 196,227,121,2,193,1 ; vpblendd $0x1,%xmm1,%xmm0,%xmm0
- DB 233,102,255,255,255 ; jmpq 23f7a <_sk_load_a8_hsw_8bit+0x1e>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,131,121,32,68,24,10,10 ; vpinsrb $0xa,0xa(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,9,9 ; vpinsrb $0x9,0x9(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,8,8 ; vpinsrb $0x8,0x8(%r8,%r11,1),%xmm0,%xmm0
- DB 196,129,122,126,12,24 ; vmovq (%r8,%r11,1),%xmm1
- DB 196,227,113,2,192,12 ; vpblendd $0xc,%xmm0,%xmm1,%xmm0
- DB 233,57,255,255,255 ; jmpq 23f7a <_sk_load_a8_hsw_8bit+0x1e>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,131,121,32,68,24,14,14 ; vpinsrb $0xe,0xe(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,13,13 ; vpinsrb $0xd,0xd(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,12,12 ; vpinsrb $0xc,0xc(%r8,%r11,1),%xmm0,%xmm0
- DB 196,129,122,126,12,24 ; vmovq (%r8,%r11,1),%xmm1
- DB 196,131,113,34,76,24,8,2 ; vpinsrd $0x2,0x8(%r8,%r11,1),%xmm1,%xmm1
- DB 196,227,113,2,192,8 ; vpblendd $0x8,%xmm0,%xmm1,%xmm0
- DB 233,4,255,255,255 ; jmpq 23f7a <_sk_load_a8_hsw_8bit+0x1e>
- DB 102,144 ; xchg %ax,%ax
- DB 71,255 ; rex.RXB (bad)
- DB 255 ; (bad)
- DB 255,94,255 ; lcall *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,82,255 ; callq *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,139,255,255,255,131 ; decl -0x7c000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 2408d <_sk_load_a8_hsw_8bit+0x131>
- DB 255 ; (bad)
- DB 255,111,255 ; ljmp *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 184,255,255,255,176 ; mov $0xb0ffffff,%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,156 ; ljmp *-0x63000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_dst_hsw_8bit
-_sk_load_a8_dst_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,35 ; jne 240ef <_sk_load_a8_dst_hsw_8bit+0x3b>
- DB 196,129,122,111,20,24 ; vmovdqu (%r8,%r11,1),%xmm2
- DB 197,249,112,218,78 ; vpshufd $0x4e,%xmm2,%xmm3
- DB 196,226,125,49,219 ; vpmovzxbd %xmm3,%ymm3
- DB 196,226,125,49,210 ; vpmovzxbd %xmm2,%ymm2
- DB 197,237,114,242,24 ; vpslld $0x18,%ymm2,%ymm2
- DB 197,229,114,243,24 ; vpslld $0x18,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,207 ; ja 240d2 <_sk_load_a8_dst_hsw_8bit+0x1e>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,194,0,0,0 ; lea 0xc2(%rip),%r10 # 241d0 <_sk_load_a8_dst_hsw_8bit+0x11c>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 235,176 ; jmp 240d2 <_sk_load_a8_dst_hsw_8bit+0x1e>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,131,105,32,84,24,2,2 ; vpinsrb $0x2,0x2(%r8,%r11,1),%xmm2,%xmm2
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 197,249,110,216 ; vmovd %eax,%xmm3
- DB 196,227,105,14,211,1 ; vpblendw $0x1,%xmm3,%xmm2,%xmm2
- DB 235,147 ; jmp 240d2 <_sk_load_a8_dst_hsw_8bit+0x1e>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,131,105,32,84,24,6,6 ; vpinsrb $0x6,0x6(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,5,5 ; vpinsrb $0x5,0x5(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,4,4 ; vpinsrb $0x4,0x4(%r8,%r11,1),%xmm2,%xmm2
- DB 196,129,121,110,28,24 ; vmovd (%r8,%r11,1),%xmm3
- DB 196,227,105,2,211,1 ; vpblendd $0x1,%xmm3,%xmm2,%xmm2
- DB 233,102,255,255,255 ; jmpq 240d2 <_sk_load_a8_dst_hsw_8bit+0x1e>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,131,105,32,84,24,10,10 ; vpinsrb $0xa,0xa(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,9,9 ; vpinsrb $0x9,0x9(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,8,8 ; vpinsrb $0x8,0x8(%r8,%r11,1),%xmm2,%xmm2
- DB 196,129,122,126,28,24 ; vmovq (%r8,%r11,1),%xmm3
- DB 196,227,97,2,210,12 ; vpblendd $0xc,%xmm2,%xmm3,%xmm2
- DB 233,57,255,255,255 ; jmpq 240d2 <_sk_load_a8_dst_hsw_8bit+0x1e>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,131,105,32,84,24,14,14 ; vpinsrb $0xe,0xe(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,13,13 ; vpinsrb $0xd,0xd(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,12,12 ; vpinsrb $0xc,0xc(%r8,%r11,1),%xmm2,%xmm2
- DB 196,129,122,126,28,24 ; vmovq (%r8,%r11,1),%xmm3
- DB 196,131,97,34,92,24,8,2 ; vpinsrd $0x2,0x8(%r8,%r11,1),%xmm3,%xmm3
- DB 196,227,97,2,210,8 ; vpblendd $0x8,%xmm2,%xmm3,%xmm2
- DB 233,4,255,255,255 ; jmpq 240d2 <_sk_load_a8_dst_hsw_8bit+0x1e>
- DB 102,144 ; xchg %ax,%ax
- DB 71,255 ; rex.RXB (bad)
- DB 255 ; (bad)
- DB 255,94,255 ; lcall *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,82,255 ; callq *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,139,255,255,255,131 ; decl -0x7c000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 241e5 <_sk_load_a8_dst_hsw_8bit+0x131>
- DB 255 ; (bad)
- DB 255,111,255 ; ljmp *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 184,255,255,255,176 ; mov $0xb0ffffff,%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,156 ; ljmp *-0x63000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_a8_hsw_8bit
-_sk_store_a8_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 197,253,111,37,25,250,0,0 ; vmovdqa 0xfa19(%rip),%ymm4 # 33c40 <_sk_srcover_rgba_8888_sse2_lowp+0x80c>
- DB 196,226,117,0,236 ; vpshufb %ymm4,%ymm1,%ymm5
- DB 196,227,253,0,237,232 ; vpermq $0xe8,%ymm5,%ymm5
- DB 197,249,111,53,118,7,1,0 ; vmovdqa 0x10776(%rip),%xmm6 # 349b0 <_sk_srcover_rgba_8888_sse2_lowp+0x157c>
- DB 196,226,81,0,238 ; vpshufb %xmm6,%xmm5,%xmm5
- DB 196,226,125,0,228 ; vpshufb %ymm4,%ymm0,%ymm4
- DB 196,227,253,0,228,232 ; vpermq $0xe8,%ymm4,%ymm4
- DB 196,226,89,0,230 ; vpshufb %xmm6,%xmm4,%xmm4
- DB 197,217,108,229 ; vpunpcklqdq %xmm5,%xmm4,%xmm4
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 24262 <_sk_store_a8_hsw_8bit+0x56>
- DB 196,129,122,127,36,24 ; vmovdqu %xmm4,(%r8,%r11,1)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,236 ; ja 2425e <_sk_store_a8_hsw_8bit+0x52>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,139,0,0,0 ; lea 0x8b(%rip),%r10 # 24308 <_sk_store_a8_hsw_8bit+0xfc>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,131,121,20,36,24,0 ; vpextrb $0x0,%xmm4,(%r8,%r11,1)
- DB 235,207 ; jmp 2425e <_sk_store_a8_hsw_8bit+0x52>
- DB 196,131,121,20,100,24,2,2 ; vpextrb $0x2,%xmm4,0x2(%r8,%r11,1)
- DB 196,131,121,21,36,24,0 ; vpextrw $0x0,%xmm4,(%r8,%r11,1)
- DB 235,190 ; jmp 2425e <_sk_store_a8_hsw_8bit+0x52>
- DB 196,131,121,20,100,24,6,6 ; vpextrb $0x6,%xmm4,0x6(%r8,%r11,1)
- DB 196,131,121,20,100,24,5,5 ; vpextrb $0x5,%xmm4,0x5(%r8,%r11,1)
- DB 196,131,121,20,100,24,4,4 ; vpextrb $0x4,%xmm4,0x4(%r8,%r11,1)
- DB 196,129,121,126,36,24 ; vmovd %xmm4,(%r8,%r11,1)
- DB 235,158 ; jmp 2425e <_sk_store_a8_hsw_8bit+0x52>
- DB 196,131,121,20,100,24,10,10 ; vpextrb $0xa,%xmm4,0xa(%r8,%r11,1)
- DB 196,131,121,20,100,24,9,9 ; vpextrb $0x9,%xmm4,0x9(%r8,%r11,1)
- DB 196,131,121,20,100,24,8,8 ; vpextrb $0x8,%xmm4,0x8(%r8,%r11,1)
- DB 235,32 ; jmp 242fa <_sk_store_a8_hsw_8bit+0xee>
- DB 196,131,121,20,100,24,14,14 ; vpextrb $0xe,%xmm4,0xe(%r8,%r11,1)
- DB 196,131,121,20,100,24,13,13 ; vpextrb $0xd,%xmm4,0xd(%r8,%r11,1)
- DB 196,131,121,20,100,24,12,12 ; vpextrb $0xc,%xmm4,0xc(%r8,%r11,1)
- DB 196,131,121,22,100,24,8,2 ; vpextrd $0x2,%xmm4,0x8(%r8,%r11,1)
- DB 196,129,121,214,36,24 ; vmovq %xmm4,(%r8,%r11,1)
- DB 233,89,255,255,255 ; jmpq 2425e <_sk_store_a8_hsw_8bit+0x52>
- DB 15,31,0 ; nopl (%rax)
- DB 126,255 ; jle 24309 <_sk_store_a8_hsw_8bit+0xfd>
- DB 255 ; (bad)
- DB 255,143,255,255,255,135 ; decl -0x78000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,176,255,255,255,168 ; pushq -0x57000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,160,255,255,255,152 ; jmpq *-0x67000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,242 ; push %rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,200 ; dec %eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,192 ; inc %eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 184,255,255,255,234 ; mov $0xeaffffff,%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,226 ; jmpq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 218,255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_hsw_8bit
-_sk_load_g8_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,60 ; jne 24398 <_sk_load_g8_hsw_8bit+0x54>
- DB 196,129,122,111,4,24 ; vmovdqu (%r8,%r11,1),%xmm0
- DB 196,226,125,49,200 ; vpmovzxbd %xmm0,%ymm1
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,125,49,192 ; vpmovzxbd %xmm0,%ymm0
- DB 196,226,125,88,37,214,254,0,0 ; vpbroadcastd 0xfed6(%rip),%ymm4 # 34250 <_sk_srcover_rgba_8888_sse2_lowp+0xe1c>
- DB 196,226,125,64,236 ; vpmulld %ymm4,%ymm0,%ymm5
- DB 196,226,117,64,196 ; vpmulld %ymm4,%ymm1,%ymm0
- DB 197,253,111,13,212,248,0,0 ; vmovdqa 0xf8d4(%rip),%ymm1 # 33c60 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
- DB 197,253,235,193 ; vpor %ymm1,%ymm0,%ymm0
- DB 197,213,235,201 ; vpor %ymm1,%ymm5,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,182 ; ja 24362 <_sk_load_g8_hsw_8bit+0x1e>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,197,0,0,0 ; lea 0xc5(%rip),%r10 # 2447c <_sk_load_g8_hsw_8bit+0x138>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 235,151 ; jmp 24362 <_sk_load_g8_hsw_8bit+0x1e>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,131,121,32,68,24,2,2 ; vpinsrb $0x2,0x2(%r8,%r11,1),%xmm0,%xmm0
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 197,249,110,200 ; vmovd %eax,%xmm1
- DB 196,227,121,14,193,1 ; vpblendw $0x1,%xmm1,%xmm0,%xmm0
- DB 233,119,255,255,255 ; jmpq 24362 <_sk_load_g8_hsw_8bit+0x1e>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,131,121,32,68,24,6,6 ; vpinsrb $0x6,0x6(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,5,5 ; vpinsrb $0x5,0x5(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,4,4 ; vpinsrb $0x4,0x4(%r8,%r11,1),%xmm0,%xmm0
- DB 196,129,121,110,12,24 ; vmovd (%r8,%r11,1),%xmm1
- DB 196,227,121,2,193,1 ; vpblendd $0x1,%xmm1,%xmm0,%xmm0
- DB 233,74,255,255,255 ; jmpq 24362 <_sk_load_g8_hsw_8bit+0x1e>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,131,121,32,68,24,10,10 ; vpinsrb $0xa,0xa(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,9,9 ; vpinsrb $0x9,0x9(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,8,8 ; vpinsrb $0x8,0x8(%r8,%r11,1),%xmm0,%xmm0
- DB 196,129,122,126,12,24 ; vmovq (%r8,%r11,1),%xmm1
- DB 196,227,113,2,192,12 ; vpblendd $0xc,%xmm0,%xmm1,%xmm0
- DB 233,29,255,255,255 ; jmpq 24362 <_sk_load_g8_hsw_8bit+0x1e>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,131,121,32,68,24,14,14 ; vpinsrb $0xe,0xe(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,13,13 ; vpinsrb $0xd,0xd(%r8,%r11,1),%xmm0,%xmm0
- DB 196,131,121,32,68,24,12,12 ; vpinsrb $0xc,0xc(%r8,%r11,1),%xmm0,%xmm0
- DB 196,129,122,126,12,24 ; vmovq (%r8,%r11,1),%xmm1
- DB 196,131,113,34,76,24,8,2 ; vpinsrd $0x2,0x8(%r8,%r11,1),%xmm1,%xmm1
- DB 196,227,113,2,192,8 ; vpblendd $0x8,%xmm0,%xmm1,%xmm0
- DB 233,232,254,255,255 ; jmpq 24362 <_sk_load_g8_hsw_8bit+0x1e>
- DB 102,144 ; xchg %ax,%ax
- DB 68,255 ; rex.R (bad)
- DB 255 ; (bad)
- DB 255,91,255 ; lcall *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,79,255 ; decl -0x1(%rdi)
- DB 255 ; (bad)
- DB 255,139,255,255,255,131 ; decl -0x7c000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 24491 <_sk_load_g8_hsw_8bit+0x14d>
- DB 255 ; (bad)
- DB 255,111,255 ; ljmp *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 184,255,255,255,176 ; mov $0xb0ffffff,%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,156 ; ljmp *-0x63000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_dst_hsw_8bit
-_sk_load_g8_dst_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,60 ; jne 2450c <_sk_load_g8_dst_hsw_8bit+0x54>
- DB 196,129,122,111,20,24 ; vmovdqu (%r8,%r11,1),%xmm2
- DB 196,226,125,49,218 ; vpmovzxbd %xmm2,%ymm3
- DB 197,249,112,210,78 ; vpshufd $0x4e,%xmm2,%xmm2
- DB 196,226,125,49,210 ; vpmovzxbd %xmm2,%ymm2
- DB 196,226,125,88,37,98,253,0,0 ; vpbroadcastd 0xfd62(%rip),%ymm4 # 34250 <_sk_srcover_rgba_8888_sse2_lowp+0xe1c>
- DB 196,226,109,64,236 ; vpmulld %ymm4,%ymm2,%ymm5
- DB 196,226,101,64,212 ; vpmulld %ymm4,%ymm3,%ymm2
- DB 197,253,111,29,128,247,0,0 ; vmovdqa 0xf780(%rip),%ymm3 # 33c80 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
- DB 197,237,235,211 ; vpor %ymm3,%ymm2,%ymm2
- DB 197,213,235,219 ; vpor %ymm3,%ymm5,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 119,182 ; ja 244d6 <_sk_load_g8_dst_hsw_8bit+0x1e>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,197,0,0,0 ; lea 0xc5(%rip),%r10 # 245f0 <_sk_load_g8_dst_hsw_8bit+0x138>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 235,151 ; jmp 244d6 <_sk_load_g8_dst_hsw_8bit+0x1e>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,131,105,32,84,24,2,2 ; vpinsrb $0x2,0x2(%r8,%r11,1),%xmm2,%xmm2
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 197,249,110,216 ; vmovd %eax,%xmm3
- DB 196,227,105,14,211,1 ; vpblendw $0x1,%xmm3,%xmm2,%xmm2
- DB 233,119,255,255,255 ; jmpq 244d6 <_sk_load_g8_dst_hsw_8bit+0x1e>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,131,105,32,84,24,6,6 ; vpinsrb $0x6,0x6(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,5,5 ; vpinsrb $0x5,0x5(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,4,4 ; vpinsrb $0x4,0x4(%r8,%r11,1),%xmm2,%xmm2
- DB 196,129,121,110,28,24 ; vmovd (%r8,%r11,1),%xmm3
- DB 196,227,105,2,211,1 ; vpblendd $0x1,%xmm3,%xmm2,%xmm2
- DB 233,74,255,255,255 ; jmpq 244d6 <_sk_load_g8_dst_hsw_8bit+0x1e>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,131,105,32,84,24,10,10 ; vpinsrb $0xa,0xa(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,9,9 ; vpinsrb $0x9,0x9(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,8,8 ; vpinsrb $0x8,0x8(%r8,%r11,1),%xmm2,%xmm2
- DB 196,129,122,126,28,24 ; vmovq (%r8,%r11,1),%xmm3
- DB 196,227,97,2,210,12 ; vpblendd $0xc,%xmm2,%xmm3,%xmm2
- DB 233,29,255,255,255 ; jmpq 244d6 <_sk_load_g8_dst_hsw_8bit+0x1e>
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,131,105,32,84,24,14,14 ; vpinsrb $0xe,0xe(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,13,13 ; vpinsrb $0xd,0xd(%r8,%r11,1),%xmm2,%xmm2
- DB 196,131,105,32,84,24,12,12 ; vpinsrb $0xc,0xc(%r8,%r11,1),%xmm2,%xmm2
- DB 196,129,122,126,28,24 ; vmovq (%r8,%r11,1),%xmm3
- DB 196,131,97,34,92,24,8,2 ; vpinsrd $0x2,0x8(%r8,%r11,1),%xmm3,%xmm3
- DB 196,227,97,2,210,8 ; vpblendd $0x8,%xmm2,%xmm3,%xmm2
- DB 233,232,254,255,255 ; jmpq 244d6 <_sk_load_g8_dst_hsw_8bit+0x1e>
- DB 102,144 ; xchg %ax,%ax
- DB 68,255 ; rex.R (bad)
- DB 255 ; (bad)
- DB 255,91,255 ; lcall *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,79,255 ; decl -0x1(%rdi)
- DB 255 ; (bad)
- DB 255,139,255,255,255,131 ; decl -0x7c000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 24605 <_sk_load_g8_dst_hsw_8bit+0x14d>
- DB 255 ; (bad)
- DB 255,111,255 ; ljmp *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 184,255,255,255,176 ; mov $0xb0ffffff,%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,156 ; ljmp *-0x63000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_srcover_rgba_8888_hsw_8bit
-_sk_srcover_rgba_8888_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,99,201 ; movslq %ecx,%r9
- DB 77,15,175,200 ; imul %r8,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,99,194 ; movslq %edx,%rax
- DB 77,141,20,129 ; lea (%r9,%rax,4),%r10
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,218,0,0,0 ; jne 2472a <_sk_srcover_rgba_8888_hsw_8bit+0xfe>
- DB 196,65,126,111,18 ; vmovdqu (%r10),%ymm10
- DB 196,65,126,111,66,32 ; vmovdqu 0x20(%r10),%ymm8
- DB 197,253,111,53,61,246,0,0 ; vmovdqa 0xf63d(%rip),%ymm6 # 33ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
- DB 196,226,117,0,254 ; vpshufb %ymm6,%ymm1,%ymm7
- DB 196,226,125,0,246 ; vpshufb %ymm6,%ymm0,%ymm6
- DB 196,99,125,57,212,1 ; vextracti128 $0x1,%ymm10,%xmm4
- DB 196,98,125,48,228 ; vpmovzxbw %xmm4,%ymm12
- DB 196,66,125,48,202 ; vpmovzxbw %xmm10,%ymm9
- DB 196,99,125,57,197,1 ; vextracti128 $0x1,%ymm8,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,66,125,48,216 ; vpmovzxbw %xmm8,%ymm11
- DB 196,227,125,57,244,1 ; vextracti128 $0x1,%ymm6,%xmm4
- DB 196,98,125,48,236 ; vpmovzxbw %xmm4,%ymm13
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 197,165,213,255 ; vpmullw %ymm7,%ymm11,%ymm7
- DB 197,213,213,228 ; vpmullw %ymm4,%ymm5,%ymm4
- DB 197,181,213,246 ; vpmullw %ymm6,%ymm9,%ymm6
- DB 196,65,29,213,237 ; vpmullw %ymm13,%ymm12,%ymm13
- DB 196,65,21,253,228 ; vpaddw %ymm12,%ymm13,%ymm12
- DB 196,193,77,253,241 ; vpaddw %ymm9,%ymm6,%ymm6
- DB 197,221,253,229 ; vpaddw %ymm5,%ymm4,%ymm4
- DB 196,193,69,253,235 ; vpaddw %ymm11,%ymm7,%ymm5
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 196,193,69,113,212,8 ; vpsrlw $0x8,%ymm12,%ymm7
- DB 196,99,77,56,207,1 ; vinserti128 $0x1,%xmm7,%ymm6,%ymm9
- DB 196,227,77,70,247,49 ; vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- DB 197,181,103,246 ; vpackuswb %ymm6,%ymm9,%ymm6
- DB 196,227,85,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- DB 196,227,85,70,228,49 ; vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- DB 197,197,103,228 ; vpackuswb %ymm4,%ymm7,%ymm4
- DB 197,189,248,236 ; vpsubb %ymm4,%ymm8,%ymm5
- DB 197,173,248,230 ; vpsubb %ymm6,%ymm10,%ymm4
- DB 197,221,252,224 ; vpaddb %ymm0,%ymm4,%ymm4
- DB 197,213,252,233 ; vpaddb %ymm1,%ymm5,%ymm5
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,75 ; jne 24766 <_sk_srcover_rgba_8888_hsw_8bit+0x13a>
- DB 196,193,126,127,34 ; vmovdqu %ymm4,(%r10)
- DB 196,193,126,127,106,32 ; vmovdqu %ymm5,0x20(%r10)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,248 ; mov %edi,%r8d
- DB 65,128,224,15 ; and $0xf,%r8b
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 196,65,45,239,210 ; vpxor %ymm10,%ymm10,%ymm10
- DB 65,254,200 ; dec %r8b
- DB 65,128,248,14 ; cmp $0xe,%r8b
- DB 15,135,19,255,255,255 ; ja 2465b <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- DB 69,15,182,192 ; movzbl %r8b,%r8d
- DB 76,141,13,213,1,0,0 ; lea 0x1d5(%rip),%r9 # 24928 <_sk_srcover_rgba_8888_hsw_8bit+0x2fc>
- DB 75,99,4,129 ; movslq (%r9,%r8,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,110,18 ; vmovd (%r10),%xmm10
- DB 233,245,254,255,255 ; jmpq 2465b <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- DB 65,137,248 ; mov %edi,%r8d
- DB 65,128,224,15 ; and $0xf,%r8b
- DB 65,254,200 ; dec %r8b
- DB 65,128,248,14 ; cmp $0xe,%r8b
- DB 119,176 ; ja 24726 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- DB 65,15,182,192 ; movzbl %r8b,%eax
- DB 76,141,5,227,1,0,0 ; lea 0x1e3(%rip),%r8 # 24964 <_sk_srcover_rgba_8888_hsw_8bit+0x338>
- DB 73,99,4,128 ; movslq (%r8,%rax,4),%rax
- DB 76,1,192 ; add %r8,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,126,34 ; vmovd %xmm4,(%r10)
- DB 235,149 ; jmp 24726 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- DB 196,193,121,110,98,8 ; vmovd 0x8(%r10),%xmm4
- DB 196,226,121,89,236 ; vpbroadcastq %xmm4,%xmm5
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 196,99,61,2,213,4 ; vpblendd $0x4,%ymm5,%ymm8,%ymm10
- DB 196,194,121,53,50 ; vpmovzxdq (%r10),%xmm6
- DB 197,249,112,246,232 ; vpshufd $0xe8,%xmm6,%xmm6
- DB 196,99,45,2,214,3 ; vpblendd $0x3,%ymm6,%ymm10,%ymm10
- DB 233,159,254,255,255 ; jmpq 2465b <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- DB 196,193,121,110,98,24 ; vmovd 0x18(%r10),%xmm4
- DB 196,226,125,89,236 ; vpbroadcastq %xmm4,%ymm5
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 196,99,61,2,213,64 ; vpblendd $0x40,%ymm5,%ymm8,%ymm10
- DB 196,99,125,57,214,1 ; vextracti128 $0x1,%ymm10,%xmm6
- DB 196,195,73,34,114,20,1 ; vpinsrd $0x1,0x14(%r10),%xmm6,%xmm6
- DB 196,99,45,56,214,1 ; vinserti128 $0x1,%xmm6,%ymm10,%ymm10
- DB 196,99,125,57,214,1 ; vextracti128 $0x1,%ymm10,%xmm6
- DB 196,195,73,34,114,16,0 ; vpinsrd $0x0,0x10(%r10),%xmm6,%xmm6
- DB 196,99,45,56,214,1 ; vinserti128 $0x1,%xmm6,%ymm10,%ymm10
- DB 196,193,122,111,50 ; vmovdqu (%r10),%xmm6
- DB 196,67,77,2,210,240 ; vpblendd $0xf0,%ymm10,%ymm6,%ymm10
- DB 233,83,254,255,255 ; jmpq 2465b <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- DB 196,193,121,110,98,40 ; vmovd 0x28(%r10),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,99,85,2,196,4 ; vpblendd $0x4,%ymm4,%ymm5,%ymm8
- DB 196,195,57,34,106,36,1 ; vpinsrd $0x1,0x24(%r10),%xmm8,%xmm5
- DB 196,99,61,2,197,15 ; vpblendd $0xf,%ymm5,%ymm8,%ymm8
- DB 196,193,121,110,106,32 ; vmovd 0x20(%r10),%xmm5
- DB 196,99,61,2,197,1 ; vpblendd $0x1,%ymm5,%ymm8,%ymm8
- DB 196,65,126,111,18 ; vmovdqu (%r10),%ymm10
- DB 233,27,254,255,255 ; jmpq 2465b <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- DB 196,193,121,110,98,56 ; vmovd 0x38(%r10),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,99,85,2,196,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm8
- DB 196,99,125,57,197,1 ; vextracti128 $0x1,%ymm8,%xmm5
- DB 196,195,81,34,106,52,1 ; vpinsrd $0x1,0x34(%r10),%xmm5,%xmm5
- DB 196,99,61,56,197,1 ; vinserti128 $0x1,%xmm5,%ymm8,%ymm8
- DB 196,99,125,57,197,1 ; vextracti128 $0x1,%ymm8,%xmm5
- DB 196,195,81,34,106,48,0 ; vpinsrd $0x0,0x30(%r10),%xmm5,%xmm5
- DB 196,99,61,56,197,1 ; vinserti128 $0x1,%xmm5,%ymm8,%ymm8
- DB 196,65,126,111,18 ; vmovdqu (%r10),%ymm10
- DB 196,193,122,111,114,32 ; vmovdqu 0x20(%r10),%xmm6
- DB 196,67,77,2,192,240 ; vpblendd $0xf0,%ymm8,%ymm6,%ymm8
- DB 233,202,253,255,255 ; jmpq 2465b <_sk_srcover_rgba_8888_hsw_8bit+0x2f>
- DB 196,195,121,22,98,8,2 ; vpextrd $0x2,%xmm4,0x8(%r10)
- DB 196,193,121,214,34 ; vmovq %xmm4,(%r10)
- DB 233,132,254,255,255 ; jmpq 24726 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,121,22,106,24,2 ; vpextrd $0x2,%xmm5,0x18(%r10)
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,121,22,106,20,1 ; vpextrd $0x1,%xmm5,0x14(%r10)
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,193,121,126,106,16 ; vmovd %xmm5,0x10(%r10)
- DB 196,193,122,127,34 ; vmovdqu %xmm4,(%r10)
- DB 233,84,254,255,255 ; jmpq 24726 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- DB 196,195,121,22,106,40,2 ; vpextrd $0x2,%xmm5,0x28(%r10)
- DB 196,195,121,22,106,36,1 ; vpextrd $0x1,%xmm5,0x24(%r10)
- DB 196,193,121,126,106,32 ; vmovd %xmm5,0x20(%r10)
- DB 196,193,126,127,34 ; vmovdqu %ymm4,(%r10)
- DB 233,54,254,255,255 ; jmpq 24726 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- DB 196,227,125,57,238,1 ; vextracti128 $0x1,%ymm5,%xmm6
- DB 196,195,121,22,114,56,2 ; vpextrd $0x2,%xmm6,0x38(%r10)
- DB 196,227,125,57,238,1 ; vextracti128 $0x1,%ymm5,%xmm6
- DB 196,195,121,22,114,52,1 ; vpextrd $0x1,%xmm6,0x34(%r10)
- DB 196,227,125,57,238,1 ; vextracti128 $0x1,%ymm5,%xmm6
- DB 196,193,121,126,114,48 ; vmovd %xmm6,0x30(%r10)
- DB 196,193,126,127,34 ; vmovdqu %ymm4,(%r10)
- DB 196,193,122,127,106,32 ; vmovdqu %xmm5,0x20(%r10)
- DB 233,0,254,255,255 ; jmpq 24726 <_sk_srcover_rgba_8888_hsw_8bit+0xfa>
- DB 102,144 ; xchg %ax,%ax
- DB 52,254 ; xor $0xfe,%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,254 ; jg 2492c <_sk_srcover_rgba_8888_hsw_8bit+0x300>
- DB 255 ; (bad)
- DB 255,105,254 ; ljmp *-0x2(%rcx)
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,254,255,255,170 ; mov $0xaafffffe,%ebp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,148,254,255,255,14,255 ; callq *-0xf10001(%rsi,%rdi,8)
- DB 255 ; (bad)
- DB 255,2 ; incl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,245 ; push %rbp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,224 ; jmpq *%rax
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,83,255 ; callq *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,64,255 ; incl -0x1(%rax)
- DB 255 ; (bad)
- DB 255,45,255,255,255,24 ; ljmp *0x18ffffff(%rip) # 19024960 <_sk_srcover_rgba_8888_sse2_lowp+0x18ff152c>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,38 ; jmpq *(%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,52,255 ; pushq (%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,45,255,255,255,100 ; ljmp *0x64ffffff(%rip) # 65024970 <_sk_srcover_rgba_8888_sse2_lowp+0x64ff153c>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,88,255 ; lcall *-0x1(%rax)
- DB 255 ; (bad)
- DB 255,75,255 ; decl -0x1(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 62,255 ; ds (bad)
- DB 255 ; (bad)
- DB 255,130,255,255,255,124 ; incl 0x7cffffff(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,117,255 ; pushq -0x1(%rbp)
- DB 255 ; (bad)
- DB 255,110,255 ; ljmp *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,178,255,255,255,166 ; pushq -0x59000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,153,255,255,255,140 ; lcall *-0x73000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_scale_1_float_hsw_8bit
-_sk_scale_1_float_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,250,16,32 ; vmovss (%rax),%xmm4
- DB 197,218,89,37,38,247,0,0 ; vmulss 0xf726(%rip),%xmm4,%xmm4 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 197,250,44,196 ; vcvttss2si %xmm4,%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 196,226,125,120,228 ; vpbroadcastb %xmm4,%ymm4
- DB 196,227,125,57,197,1 ; vextracti128 $0x1,%ymm0,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,206,1 ; vextracti128 $0x1,%ymm1,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 197,221,219,37,221,242,0,0 ; vpand 0xf2dd(%rip),%ymm4,%ymm4 # 33cc0 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
- DB 197,221,213,249 ; vpmullw %ymm1,%ymm4,%ymm7
- DB 197,93,213,198 ; vpmullw %ymm6,%ymm4,%ymm8
- DB 197,93,213,200 ; vpmullw %ymm0,%ymm4,%ymm9
- DB 197,221,213,229 ; vpmullw %ymm5,%ymm4,%ymm4
- DB 197,221,253,229 ; vpaddw %ymm5,%ymm4,%ymm4
- DB 197,181,253,192 ; vpaddw %ymm0,%ymm9,%ymm0
- DB 197,189,253,238 ; vpaddw %ymm6,%ymm8,%ymm5
- DB 197,197,253,201 ; vpaddw %ymm1,%ymm7,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 196,227,125,56,244,1 ; vinserti128 $0x1,%xmm4,%ymm0,%ymm6
- DB 196,227,125,70,196,49 ; vperm2i128 $0x31,%ymm4,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,227,117,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm1,%ymm4
- DB 196,227,117,70,205,49 ; vperm2i128 $0x31,%ymm5,%ymm1,%ymm1
- DB 197,221,103,201 ; vpackuswb %ymm1,%ymm4,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_u8_hsw_8bit
-_sk_scale_u8_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,194,0,0,0 ; jne 24b19 <_sk_scale_u8_hsw_8bit+0xde>
- DB 196,129,122,111,36,24 ; vmovdqu (%r8,%r11,1),%xmm4
- DB 196,226,125,49,236 ; vpmovzxbd %xmm4,%ymm5
- DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
- DB 196,226,125,49,228 ; vpmovzxbd %xmm4,%ymm4
- DB 197,253,111,53,108,242,0,0 ; vmovdqa 0xf26c(%rip),%ymm6 # 33ce0 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
- DB 196,226,93,0,230 ; vpshufb %ymm6,%ymm4,%ymm4
- DB 196,226,85,0,238 ; vpshufb %ymm6,%ymm5,%ymm5
- DB 196,227,125,57,198,1 ; vextracti128 $0x1,%ymm0,%xmm6
- DB 196,98,125,48,198 ; vpmovzxbw %xmm6,%ymm8
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,207,1 ; vextracti128 $0x1,%ymm1,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 196,227,125,57,238,1 ; vextracti128 $0x1,%ymm5,%xmm6
- DB 196,98,125,48,206 ; vpmovzxbw %xmm6,%ymm9
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,227,125,57,230,1 ; vextracti128 $0x1,%ymm4,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 197,221,213,225 ; vpmullw %ymm1,%ymm4,%ymm4
- DB 197,205,213,247 ; vpmullw %ymm7,%ymm6,%ymm6
- DB 197,213,213,232 ; vpmullw %ymm0,%ymm5,%ymm5
- DB 196,65,53,213,200 ; vpmullw %ymm8,%ymm9,%ymm9
- DB 196,65,53,253,192 ; vpaddw %ymm8,%ymm9,%ymm8
- DB 197,213,253,192 ; vpaddw %ymm0,%ymm5,%ymm0
- DB 197,205,253,239 ; vpaddw %ymm7,%ymm6,%ymm5
- DB 197,221,253,201 ; vpaddw %ymm1,%ymm4,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,221,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm4
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 196,193,85,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm5
- DB 196,227,125,56,245,1 ; vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- DB 196,227,125,70,197,49 ; vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,227,117,56,236,1 ; vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- DB 196,227,117,70,204,49 ; vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- DB 197,213,103,201 ; vpackuswb %ymm1,%ymm5,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 15,135,44,255,255,255 ; ja 24a5d <_sk_scale_u8_hsw_8bit+0x22>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,200,0,0,0 ; lea 0xc8(%rip),%r10 # 24c04 <_sk_scale_u8_hsw_8bit+0x1c9>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,10,255,255,255 ; jmpq 24a5d <_sk_scale_u8_hsw_8bit+0x22>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,131,89,32,100,24,2,2 ; vpinsrb $0x2,0x2(%r8,%r11,1),%xmm4,%xmm4
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 197,249,110,232 ; vmovd %eax,%xmm5
- DB 196,227,89,14,229,1 ; vpblendw $0x1,%xmm5,%xmm4,%xmm4
- DB 233,234,254,255,255 ; jmpq 24a5d <_sk_scale_u8_hsw_8bit+0x22>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,131,89,32,100,24,6,6 ; vpinsrb $0x6,0x6(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,5,5 ; vpinsrb $0x5,0x5(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,4,4 ; vpinsrb $0x4,0x4(%r8,%r11,1),%xmm4,%xmm4
- DB 196,129,121,110,44,24 ; vmovd (%r8,%r11,1),%xmm5
- DB 196,227,89,2,229,1 ; vpblendd $0x1,%xmm5,%xmm4,%xmm4
- DB 233,189,254,255,255 ; jmpq 24a5d <_sk_scale_u8_hsw_8bit+0x22>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,131,89,32,100,24,10,10 ; vpinsrb $0xa,0xa(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,9,9 ; vpinsrb $0x9,0x9(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,8,8 ; vpinsrb $0x8,0x8(%r8,%r11,1),%xmm4,%xmm4
- DB 196,129,122,126,44,24 ; vmovq (%r8,%r11,1),%xmm5
- DB 196,227,81,2,228,12 ; vpblendd $0xc,%xmm4,%xmm5,%xmm4
- DB 233,144,254,255,255 ; jmpq 24a5d <_sk_scale_u8_hsw_8bit+0x22>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,131,89,32,100,24,14,14 ; vpinsrb $0xe,0xe(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,13,13 ; vpinsrb $0xd,0xd(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,12,12 ; vpinsrb $0xc,0xc(%r8,%r11,1),%xmm4,%xmm4
- DB 196,129,122,126,44,24 ; vmovq (%r8,%r11,1),%xmm5
- DB 196,131,81,34,108,24,8,2 ; vpinsrd $0x2,0x8(%r8,%r11,1),%xmm5,%xmm5
- DB 196,227,81,2,228,8 ; vpblendd $0x8,%xmm4,%xmm5,%xmm4
- DB 233,91,254,255,255 ; jmpq 24a5d <_sk_scale_u8_hsw_8bit+0x22>
- DB 102,144 ; xchg %ax,%ax
- DB 65,255 ; rex.B (bad)
- DB 255 ; (bad)
- DB 255,91,255 ; lcall *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,79,255 ; decl -0x1(%rdi)
- DB 255 ; (bad)
- DB 255,139,255,255,255,131 ; decl -0x7c000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 24c19 <_sk_scale_u8_hsw_8bit+0x1de>
- DB 255 ; (bad)
- DB 255,111,255 ; ljmp *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 184,255,255,255,176 ; mov $0xb0ffffff,%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,156 ; ljmp *-0x63000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_1_float_hsw_8bit
-_sk_lerp_1_float_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,250,16,32 ; vmovss (%rax),%xmm4
- DB 197,218,89,37,134,244,0,0 ; vmulss 0xf486(%rip),%xmm4,%xmm4 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 197,250,44,196 ; vcvttss2si %xmm4,%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 196,226,125,120,228 ; vpbroadcastb %xmm4,%ymm4
- DB 196,227,125,57,197,1 ; vextracti128 $0x1,%ymm0,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,206,1 ; vextracti128 $0x1,%ymm1,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 197,221,219,61,125,240,0,0 ; vpand 0xf07d(%rip),%ymm4,%ymm7 # 33d00 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
- DB 197,69,213,193 ; vpmullw %ymm1,%ymm7,%ymm8
- DB 197,69,213,206 ; vpmullw %ymm6,%ymm7,%ymm9
- DB 197,69,213,208 ; vpmullw %ymm0,%ymm7,%ymm10
- DB 197,197,213,253 ; vpmullw %ymm5,%ymm7,%ymm7
- DB 197,197,253,237 ; vpaddw %ymm5,%ymm7,%ymm5
- DB 197,173,253,192 ; vpaddw %ymm0,%ymm10,%ymm0
- DB 197,181,253,246 ; vpaddw %ymm6,%ymm9,%ymm6
- DB 197,189,253,201 ; vpaddw %ymm1,%ymm8,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 196,227,125,56,253,1 ; vinserti128 $0x1,%xmm5,%ymm0,%ymm7
- DB 196,227,125,70,197,49 ; vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- DB 197,197,103,192 ; vpackuswb %ymm0,%ymm7,%ymm0
- DB 196,227,117,56,238,1 ; vinserti128 $0x1,%xmm6,%ymm1,%ymm5
- DB 196,227,117,70,206,49 ; vperm2i128 $0x31,%ymm6,%ymm1,%ymm1
- DB 197,85,103,201 ; vpackuswb %ymm1,%ymm5,%ymm9
- DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
- DB 197,221,239,229 ; vpxor %ymm5,%ymm4,%ymm4
- DB 196,227,125,57,213,1 ; vextracti128 $0x1,%ymm2,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,226,125,48,242 ; vpmovzxbw %xmm2,%ymm6
- DB 196,227,125,57,223,1 ; vextracti128 $0x1,%ymm3,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,98,125,48,195 ; vpmovzxbw %xmm3,%ymm8
- DB 196,227,125,57,225,1 ; vextracti128 $0x1,%ymm4,%xmm1
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,65,93,213,208 ; vpmullw %ymm8,%ymm4,%ymm10
- DB 197,117,213,223 ; vpmullw %ymm7,%ymm1,%ymm11
- DB 197,221,213,230 ; vpmullw %ymm6,%ymm4,%ymm4
- DB 197,245,213,205 ; vpmullw %ymm5,%ymm1,%ymm1
- DB 197,245,253,205 ; vpaddw %ymm5,%ymm1,%ymm1
- DB 197,221,253,230 ; vpaddw %ymm6,%ymm4,%ymm4
- DB 197,165,253,239 ; vpaddw %ymm7,%ymm11,%ymm5
- DB 196,193,45,253,240 ; vpaddw %ymm8,%ymm10,%ymm6
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 196,227,93,56,249,1 ; vinserti128 $0x1,%xmm1,%ymm4,%ymm7
- DB 196,227,93,70,201,49 ; vperm2i128 $0x31,%ymm1,%ymm4,%ymm1
- DB 197,197,103,201 ; vpackuswb %ymm1,%ymm7,%ymm1
- DB 197,245,252,192 ; vpaddb %ymm0,%ymm1,%ymm0
- DB 196,227,77,56,205,1 ; vinserti128 $0x1,%xmm5,%ymm6,%ymm1
- DB 196,227,77,70,229,49 ; vperm2i128 $0x31,%ymm5,%ymm6,%ymm4
- DB 197,245,103,204 ; vpackuswb %ymm4,%ymm1,%ymm1
- DB 196,193,117,252,201 ; vpaddb %ymm9,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lerp_u8_hsw_8bit
-_sk_lerp_u8_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,107,1,0,0 ; jne 24ef9 <_sk_lerp_u8_hsw_8bit+0x187>
- DB 196,129,122,111,36,24 ; vmovdqu (%r8,%r11,1),%xmm4
- DB 196,226,125,49,236 ; vpmovzxbd %xmm4,%ymm5
- DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
- DB 196,226,125,49,228 ; vpmovzxbd %xmm4,%ymm4
- DB 197,253,111,53,117,239,0,0 ; vmovdqa 0xef75(%rip),%ymm6 # 33d20 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
- DB 196,98,93,0,198 ; vpshufb %ymm6,%ymm4,%ymm8
- DB 196,226,85,0,238 ; vpshufb %ymm6,%ymm5,%ymm5
- DB 196,227,125,57,198,1 ; vextracti128 $0x1,%ymm0,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,207,1 ; vextracti128 $0x1,%ymm1,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 196,227,125,57,236,1 ; vextracti128 $0x1,%ymm5,%xmm4
- DB 196,98,125,48,212 ; vpmovzxbw %xmm4,%ymm10
- DB 196,98,125,48,205 ; vpmovzxbw %xmm5,%ymm9
- DB 196,99,125,57,196,1 ; vextracti128 $0x1,%ymm8,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,66,125,48,216 ; vpmovzxbw %xmm8,%ymm11
- DB 197,37,213,217 ; vpmullw %ymm1,%ymm11,%ymm11
- DB 197,221,213,231 ; vpmullw %ymm7,%ymm4,%ymm4
- DB 197,53,213,200 ; vpmullw %ymm0,%ymm9,%ymm9
- DB 197,45,213,214 ; vpmullw %ymm6,%ymm10,%ymm10
- DB 197,173,253,246 ; vpaddw %ymm6,%ymm10,%ymm6
- DB 197,181,253,192 ; vpaddw %ymm0,%ymm9,%ymm0
- DB 197,221,253,231 ; vpaddw %ymm7,%ymm4,%ymm4
- DB 197,165,253,201 ; vpaddw %ymm1,%ymm11,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 196,227,125,56,254,1 ; vinserti128 $0x1,%xmm6,%ymm0,%ymm7
- DB 196,227,125,70,198,49 ; vperm2i128 $0x31,%ymm6,%ymm0,%ymm0
- DB 197,69,103,208 ; vpackuswb %ymm0,%ymm7,%ymm10
- DB 196,227,117,56,244,1 ; vinserti128 $0x1,%xmm4,%ymm1,%ymm6
- DB 196,227,117,70,204,49 ; vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- DB 197,77,103,201 ; vpackuswb %ymm1,%ymm6,%ymm9
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,189,239,244 ; vpxor %ymm4,%ymm8,%ymm6
- DB 197,213,239,228 ; vpxor %ymm4,%ymm5,%ymm4
- DB 196,227,125,57,213,1 ; vextracti128 $0x1,%ymm2,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,226,125,48,250 ; vpmovzxbw %xmm2,%ymm7
- DB 196,227,125,57,217,1 ; vextracti128 $0x1,%ymm3,%xmm1
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 196,98,125,48,195 ; vpmovzxbw %xmm3,%ymm8
- DB 196,227,125,57,224,1 ; vextracti128 $0x1,%ymm4,%xmm0
- DB 196,98,125,48,216 ; vpmovzxbw %xmm0,%ymm11
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,227,125,57,240,1 ; vextracti128 $0x1,%ymm6,%xmm0
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,193,77,213,240 ; vpmullw %ymm8,%ymm6,%ymm6
- DB 197,253,213,193 ; vpmullw %ymm1,%ymm0,%ymm0
- DB 197,221,213,231 ; vpmullw %ymm7,%ymm4,%ymm4
- DB 197,37,213,221 ; vpmullw %ymm5,%ymm11,%ymm11
- DB 197,165,253,237 ; vpaddw %ymm5,%ymm11,%ymm5
- DB 197,221,253,231 ; vpaddw %ymm7,%ymm4,%ymm4
- DB 197,253,253,193 ; vpaddw %ymm1,%ymm0,%ymm0
- DB 196,193,77,253,200 ; vpaddw %ymm8,%ymm6,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,205,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm6
- DB 197,253,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm0
- DB 197,221,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm4
- DB 196,227,125,56,236,1 ; vinserti128 $0x1,%xmm4,%ymm0,%ymm5
- DB 196,227,125,70,196,49 ; vperm2i128 $0x31,%ymm4,%ymm0,%ymm0
- DB 197,213,103,192 ; vpackuswb %ymm0,%ymm5,%ymm0
- DB 196,193,125,252,194 ; vpaddb %ymm10,%ymm0,%ymm0
- DB 196,227,117,56,230,1 ; vinserti128 $0x1,%xmm6,%ymm1,%ymm4
- DB 196,227,117,70,206,49 ; vperm2i128 $0x31,%ymm6,%ymm1,%ymm1
- DB 197,221,103,201 ; vpackuswb %ymm1,%ymm4,%ymm1
- DB 196,193,117,252,201 ; vpaddb %ymm9,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,15 ; and $0xf,%r9b
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,14 ; cmp $0xe,%r9b
- DB 15,135,131,254,255,255 ; ja 24d94 <_sk_lerp_u8_hsw_8bit+0x22>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,200,0,0,0 ; lea 0xc8(%rip),%r10 # 24fe4 <_sk_lerp_u8_hsw_8bit+0x272>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,97,254,255,255 ; jmpq 24d94 <_sk_lerp_u8_hsw_8bit+0x22>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,131,89,32,100,24,2,2 ; vpinsrb $0x2,0x2(%r8,%r11,1),%xmm4,%xmm4
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 197,249,110,232 ; vmovd %eax,%xmm5
- DB 196,227,89,14,229,1 ; vpblendw $0x1,%xmm5,%xmm4,%xmm4
- DB 233,65,254,255,255 ; jmpq 24d94 <_sk_lerp_u8_hsw_8bit+0x22>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,131,89,32,100,24,6,6 ; vpinsrb $0x6,0x6(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,5,5 ; vpinsrb $0x5,0x5(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,4,4 ; vpinsrb $0x4,0x4(%r8,%r11,1),%xmm4,%xmm4
- DB 196,129,121,110,44,24 ; vmovd (%r8,%r11,1),%xmm5
- DB 196,227,89,2,229,1 ; vpblendd $0x1,%xmm5,%xmm4,%xmm4
- DB 233,20,254,255,255 ; jmpq 24d94 <_sk_lerp_u8_hsw_8bit+0x22>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,131,89,32,100,24,10,10 ; vpinsrb $0xa,0xa(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,9,9 ; vpinsrb $0x9,0x9(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,8,8 ; vpinsrb $0x8,0x8(%r8,%r11,1),%xmm4,%xmm4
- DB 196,129,122,126,44,24 ; vmovq (%r8,%r11,1),%xmm5
- DB 196,227,81,2,228,12 ; vpblendd $0xc,%xmm4,%xmm5,%xmm4
- DB 233,231,253,255,255 ; jmpq 24d94 <_sk_lerp_u8_hsw_8bit+0x22>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,131,89,32,100,24,14,14 ; vpinsrb $0xe,0xe(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,13,13 ; vpinsrb $0xd,0xd(%r8,%r11,1),%xmm4,%xmm4
- DB 196,131,89,32,100,24,12,12 ; vpinsrb $0xc,0xc(%r8,%r11,1),%xmm4,%xmm4
- DB 196,129,122,126,44,24 ; vmovq (%r8,%r11,1),%xmm5
- DB 196,131,81,34,108,24,8,2 ; vpinsrd $0x2,0x8(%r8,%r11,1),%xmm5,%xmm5
- DB 196,227,81,2,228,8 ; vpblendd $0x8,%xmm4,%xmm5,%xmm4
- DB 233,178,253,255,255 ; jmpq 24d94 <_sk_lerp_u8_hsw_8bit+0x22>
- DB 102,144 ; xchg %ax,%ax
- DB 65,255 ; rex.B (bad)
- DB 255 ; (bad)
- DB 255,91,255 ; lcall *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,79,255 ; decl -0x1(%rdi)
- DB 255 ; (bad)
- DB 255,139,255,255,255,131 ; decl -0x7c000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 24ff9 <_sk_lerp_u8_hsw_8bit+0x287>
- DB 255 ; (bad)
- DB 255,111,255 ; ljmp *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 184,255,255,255,176 ; mov $0xb0ffffff,%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,156 ; ljmp *-0x63000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_move_src_dst_hsw_8bit
-_sk_move_src_dst_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,252,40,217 ; vmovaps %ymm1,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_dst_src_hsw_8bit
-_sk_move_dst_src_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,194 ; vmovaps %ymm2,%ymm0
- DB 197,252,40,203 ; vmovaps %ymm3,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_black_color_hsw_8bit
-_sk_black_color_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,9,242,0,0 ; vbroadcastss 0xf209(%rip),%ymm0 # 3424c <_sk_srcover_rgba_8888_sse2_lowp+0xe18>
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_white_color_hsw_8bit
-_sk_white_color_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,253,118,192 ; vpcmpeqd %ymm0,%ymm0,%ymm0
- DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clear_hsw_8bit
-_sk_clear_hsw_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcatop_hsw_8bit
-_sk_srcatop_hsw_8bit LABEL PROC
- DB 197,125,111,13,215,236,0,0 ; vmovdqa 0xecd7(%rip),%ymm9 # 33d40 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
- DB 196,194,101,0,225 ; vpshufb %ymm9,%ymm3,%ymm4
- DB 196,194,109,0,233 ; vpshufb %ymm9,%ymm2,%ymm5
- DB 196,227,125,57,199,1 ; vextracti128 $0x1,%ymm0,%xmm7
- DB 196,98,125,48,223 ; vpmovzxbw %xmm7,%ymm11
- DB 196,98,125,48,192 ; vpmovzxbw %xmm0,%ymm8
- DB 196,227,125,57,206,1 ; vextracti128 $0x1,%ymm1,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,98,125,48,209 ; vpmovzxbw %xmm1,%ymm10
- DB 196,227,125,57,239,1 ; vextracti128 $0x1,%ymm5,%xmm7
- DB 196,98,125,48,231 ; vpmovzxbw %xmm7,%ymm12
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,227,125,57,231,1 ; vextracti128 $0x1,%ymm4,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,193,93,213,226 ; vpmullw %ymm10,%ymm4,%ymm4
- DB 197,197,213,254 ; vpmullw %ymm6,%ymm7,%ymm7
- DB 196,193,85,213,232 ; vpmullw %ymm8,%ymm5,%ymm5
- DB 196,65,29,213,227 ; vpmullw %ymm11,%ymm12,%ymm12
- DB 196,65,29,253,219 ; vpaddw %ymm11,%ymm12,%ymm11
- DB 196,193,85,253,232 ; vpaddw %ymm8,%ymm5,%ymm5
- DB 197,197,253,246 ; vpaddw %ymm6,%ymm7,%ymm6
- DB 196,193,93,253,226 ; vpaddw %ymm10,%ymm4,%ymm4
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 196,193,69,113,211,8 ; vpsrlw $0x8,%ymm11,%ymm7
- DB 196,99,85,56,199,1 ; vinserti128 $0x1,%xmm7,%ymm5,%ymm8
- DB 196,227,85,70,239,49 ; vperm2i128 $0x31,%ymm7,%ymm5,%ymm5
- DB 197,61,103,213 ; vpackuswb %ymm5,%ymm8,%ymm10
- DB 196,227,93,56,254,1 ; vinserti128 $0x1,%xmm6,%ymm4,%ymm7
- DB 196,227,93,70,230,49 ; vperm2i128 $0x31,%ymm6,%ymm4,%ymm4
- DB 197,69,103,196 ; vpackuswb %ymm4,%ymm7,%ymm8
- DB 196,194,125,0,193 ; vpshufb %ymm9,%ymm0,%ymm0
- DB 196,194,117,0,201 ; vpshufb %ymm9,%ymm1,%ymm1
- DB 197,205,118,246 ; vpcmpeqd %ymm6,%ymm6,%ymm6
- DB 197,245,239,206 ; vpxor %ymm6,%ymm1,%ymm1
- DB 197,253,239,198 ; vpxor %ymm6,%ymm0,%ymm0
- DB 196,227,125,57,214,1 ; vextracti128 $0x1,%ymm2,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,250 ; vpmovzxbw %xmm2,%ymm7
- DB 196,227,125,57,220,1 ; vextracti128 $0x1,%ymm3,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,98,125,48,203 ; vpmovzxbw %xmm3,%ymm9
- DB 196,227,125,57,197,1 ; vextracti128 $0x1,%ymm0,%xmm5
- DB 196,98,125,48,221 ; vpmovzxbw %xmm5,%ymm11
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,205,1 ; vextracti128 $0x1,%ymm1,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 197,181,213,201 ; vpmullw %ymm1,%ymm9,%ymm1
- DB 197,221,213,237 ; vpmullw %ymm5,%ymm4,%ymm5
- DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
- DB 196,65,77,213,219 ; vpmullw %ymm11,%ymm6,%ymm11
- DB 197,165,253,246 ; vpaddw %ymm6,%ymm11,%ymm6
- DB 197,253,253,199 ; vpaddw %ymm7,%ymm0,%ymm0
- DB 197,213,253,228 ; vpaddw %ymm4,%ymm5,%ymm4
- DB 196,193,117,253,201 ; vpaddw %ymm9,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,213,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm5
- DB 196,227,125,56,245,1 ; vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- DB 196,227,125,70,197,49 ; vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,193,125,252,194 ; vpaddb %ymm10,%ymm0,%ymm0
- DB 196,227,117,56,236,1 ; vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- DB 196,227,117,70,204,49 ; vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- DB 197,213,103,201 ; vpackuswb %ymm1,%ymm5,%ymm1
- DB 196,193,117,252,200 ; vpaddb %ymm8,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstatop_hsw_8bit
-_sk_dstatop_hsw_8bit LABEL PROC
- DB 197,125,111,13,144,235,0,0 ; vmovdqa 0xeb90(%rip),%ymm9 # 33d60 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- DB 196,194,117,0,225 ; vpshufb %ymm9,%ymm1,%ymm4
- DB 196,194,125,0,233 ; vpshufb %ymm9,%ymm0,%ymm5
- DB 196,227,125,57,215,1 ; vextracti128 $0x1,%ymm2,%xmm7
- DB 196,98,125,48,223 ; vpmovzxbw %xmm7,%ymm11
- DB 196,98,125,48,194 ; vpmovzxbw %xmm2,%ymm8
- DB 196,227,125,57,222,1 ; vextracti128 $0x1,%ymm3,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,98,125,48,211 ; vpmovzxbw %xmm3,%ymm10
- DB 196,227,125,57,239,1 ; vextracti128 $0x1,%ymm5,%xmm7
- DB 196,98,125,48,231 ; vpmovzxbw %xmm7,%ymm12
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,227,125,57,231,1 ; vextracti128 $0x1,%ymm4,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 197,173,213,228 ; vpmullw %ymm4,%ymm10,%ymm4
- DB 197,205,213,255 ; vpmullw %ymm7,%ymm6,%ymm7
- DB 197,189,213,237 ; vpmullw %ymm5,%ymm8,%ymm5
- DB 196,65,37,213,228 ; vpmullw %ymm12,%ymm11,%ymm12
- DB 196,65,29,253,219 ; vpaddw %ymm11,%ymm12,%ymm11
- DB 196,193,85,253,232 ; vpaddw %ymm8,%ymm5,%ymm5
- DB 197,197,253,246 ; vpaddw %ymm6,%ymm7,%ymm6
- DB 196,193,93,253,226 ; vpaddw %ymm10,%ymm4,%ymm4
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 196,193,69,113,211,8 ; vpsrlw $0x8,%ymm11,%ymm7
- DB 196,99,85,56,199,1 ; vinserti128 $0x1,%xmm7,%ymm5,%ymm8
- DB 196,227,85,70,239,49 ; vperm2i128 $0x31,%ymm7,%ymm5,%ymm5
- DB 197,61,103,221 ; vpackuswb %ymm5,%ymm8,%ymm11
- DB 196,227,93,56,254,1 ; vinserti128 $0x1,%xmm6,%ymm4,%ymm7
- DB 196,227,93,70,230,49 ; vperm2i128 $0x31,%ymm6,%ymm4,%ymm4
- DB 197,69,103,212 ; vpackuswb %ymm4,%ymm7,%ymm10
- DB 196,194,109,0,241 ; vpshufb %ymm9,%ymm2,%ymm6
- DB 196,194,101,0,249 ; vpshufb %ymm9,%ymm3,%ymm7
- DB 196,65,61,118,192 ; vpcmpeqd %ymm8,%ymm8,%ymm8
- DB 196,193,69,239,248 ; vpxor %ymm8,%ymm7,%ymm7
- DB 196,193,77,239,240 ; vpxor %ymm8,%ymm6,%ymm6
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,98,125,48,196 ; vpmovzxbw %xmm4,%ymm8
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,205,1 ; vextracti128 $0x1,%ymm1,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 196,227,125,57,244,1 ; vextracti128 $0x1,%ymm6,%xmm4
- DB 196,98,125,48,204 ; vpmovzxbw %xmm4,%ymm9
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 197,197,213,249 ; vpmullw %ymm1,%ymm7,%ymm7
- DB 197,221,213,229 ; vpmullw %ymm5,%ymm4,%ymm4
- DB 197,205,213,240 ; vpmullw %ymm0,%ymm6,%ymm6
- DB 196,65,53,213,200 ; vpmullw %ymm8,%ymm9,%ymm9
- DB 196,65,53,253,192 ; vpaddw %ymm8,%ymm9,%ymm8
- DB 197,205,253,192 ; vpaddw %ymm0,%ymm6,%ymm0
- DB 197,221,253,229 ; vpaddw %ymm5,%ymm4,%ymm4
- DB 197,197,253,201 ; vpaddw %ymm1,%ymm7,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 196,193,85,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm5
- DB 196,227,125,56,245,1 ; vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- DB 196,227,125,70,197,49 ; vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,193,125,252,195 ; vpaddb %ymm11,%ymm0,%ymm0
- DB 196,227,117,56,236,1 ; vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- DB 196,227,117,70,204,49 ; vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- DB 197,213,103,201 ; vpackuswb %ymm1,%ymm5,%ymm1
- DB 196,193,117,252,202 ; vpaddb %ymm10,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcin_hsw_8bit
-_sk_srcin_hsw_8bit LABEL PROC
- DB 197,253,111,37,71,234,0,0 ; vmovdqa 0xea47(%rip),%ymm4 # 33d80 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
- DB 196,226,101,0,236 ; vpshufb %ymm4,%ymm3,%ymm5
- DB 196,226,109,0,228 ; vpshufb %ymm4,%ymm2,%ymm4
- DB 196,227,125,57,198,1 ; vextracti128 $0x1,%ymm0,%xmm6
- DB 196,98,125,48,198 ; vpmovzxbw %xmm6,%ymm8
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,207,1 ; vextracti128 $0x1,%ymm1,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 196,227,125,57,230,1 ; vextracti128 $0x1,%ymm4,%xmm6
- DB 196,98,125,48,206 ; vpmovzxbw %xmm6,%ymm9
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,227,125,57,238,1 ; vextracti128 $0x1,%ymm5,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 197,213,213,233 ; vpmullw %ymm1,%ymm5,%ymm5
- DB 197,205,213,247 ; vpmullw %ymm7,%ymm6,%ymm6
- DB 197,221,213,224 ; vpmullw %ymm0,%ymm4,%ymm4
- DB 196,65,53,213,200 ; vpmullw %ymm8,%ymm9,%ymm9
- DB 196,65,53,253,192 ; vpaddw %ymm8,%ymm9,%ymm8
- DB 197,221,253,192 ; vpaddw %ymm0,%ymm4,%ymm0
- DB 197,205,253,231 ; vpaddw %ymm7,%ymm6,%ymm4
- DB 197,213,253,201 ; vpaddw %ymm1,%ymm5,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 196,193,85,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm5
- DB 196,227,125,56,245,1 ; vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- DB 196,227,125,70,197,49 ; vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,227,117,56,236,1 ; vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- DB 196,227,117,70,204,49 ; vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- DB 197,213,103,201 ; vpackuswb %ymm1,%ymm5,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstin_hsw_8bit
-_sk_dstin_hsw_8bit LABEL PROC
- DB 197,253,111,37,186,233,0,0 ; vmovdqa 0xe9ba(%rip),%ymm4 # 33da0 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
- DB 196,226,117,0,204 ; vpshufb %ymm4,%ymm1,%ymm1
- DB 196,226,125,0,196 ; vpshufb %ymm4,%ymm0,%ymm0
- DB 196,227,125,57,212,1 ; vextracti128 $0x1,%ymm2,%xmm4
- DB 196,98,125,48,196 ; vpmovzxbw %xmm4,%ymm8
- DB 196,226,125,48,234 ; vpmovzxbw %xmm2,%ymm5
- DB 196,227,125,57,222,1 ; vextracti128 $0x1,%ymm3,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,251 ; vpmovzxbw %xmm3,%ymm7
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,98,125,48,204 ; vpmovzxbw %xmm4,%ymm9
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,204,1 ; vextracti128 $0x1,%ymm1,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 197,197,213,201 ; vpmullw %ymm1,%ymm7,%ymm1
- DB 197,205,213,228 ; vpmullw %ymm4,%ymm6,%ymm4
- DB 197,213,213,192 ; vpmullw %ymm0,%ymm5,%ymm0
- DB 196,65,61,213,201 ; vpmullw %ymm9,%ymm8,%ymm9
- DB 196,65,53,253,192 ; vpaddw %ymm8,%ymm9,%ymm8
- DB 197,253,253,197 ; vpaddw %ymm5,%ymm0,%ymm0
- DB 197,221,253,230 ; vpaddw %ymm6,%ymm4,%ymm4
- DB 197,245,253,207 ; vpaddw %ymm7,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 196,193,85,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm5
- DB 196,227,125,56,245,1 ; vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- DB 196,227,125,70,197,49 ; vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,227,117,56,236,1 ; vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- DB 196,227,117,70,204,49 ; vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- DB 197,213,103,201 ; vpackuswb %ymm1,%ymm5,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcout_hsw_8bit
-_sk_srcout_hsw_8bit LABEL PROC
- DB 197,253,111,37,45,233,0,0 ; vmovdqa 0xe92d(%rip),%ymm4 # 33dc0 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
- DB 196,226,109,0,236 ; vpshufb %ymm4,%ymm2,%ymm5
- DB 196,226,101,0,228 ; vpshufb %ymm4,%ymm3,%ymm4
- DB 197,205,118,246 ; vpcmpeqd %ymm6,%ymm6,%ymm6
- DB 197,221,239,230 ; vpxor %ymm6,%ymm4,%ymm4
- DB 197,213,239,238 ; vpxor %ymm6,%ymm5,%ymm5
- DB 196,227,125,57,198,1 ; vextracti128 $0x1,%ymm0,%xmm6
- DB 196,98,125,48,198 ; vpmovzxbw %xmm6,%ymm8
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,207,1 ; vextracti128 $0x1,%ymm1,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 196,227,125,57,238,1 ; vextracti128 $0x1,%ymm5,%xmm6
- DB 196,98,125,48,206 ; vpmovzxbw %xmm6,%ymm9
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,227,125,57,230,1 ; vextracti128 $0x1,%ymm4,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 197,221,213,225 ; vpmullw %ymm1,%ymm4,%ymm4
- DB 197,205,213,247 ; vpmullw %ymm7,%ymm6,%ymm6
- DB 197,213,213,232 ; vpmullw %ymm0,%ymm5,%ymm5
- DB 196,65,53,213,200 ; vpmullw %ymm8,%ymm9,%ymm9
- DB 196,65,53,253,192 ; vpaddw %ymm8,%ymm9,%ymm8
- DB 197,213,253,192 ; vpaddw %ymm0,%ymm5,%ymm0
- DB 197,205,253,239 ; vpaddw %ymm7,%ymm6,%ymm5
- DB 197,221,253,201 ; vpaddw %ymm1,%ymm4,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,221,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm4
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 196,193,85,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm5
- DB 196,227,125,56,245,1 ; vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- DB 196,227,125,70,197,49 ; vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,227,117,56,236,1 ; vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- DB 196,227,117,70,204,49 ; vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- DB 197,213,103,201 ; vpackuswb %ymm1,%ymm5,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstout_hsw_8bit
-_sk_dstout_hsw_8bit LABEL PROC
- DB 197,253,111,37,148,232,0,0 ; vmovdqa 0xe894(%rip),%ymm4 # 33de0 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
- DB 196,226,125,0,196 ; vpshufb %ymm4,%ymm0,%ymm0
- DB 196,226,117,0,204 ; vpshufb %ymm4,%ymm1,%ymm1
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,245,239,204 ; vpxor %ymm4,%ymm1,%ymm1
- DB 197,253,239,196 ; vpxor %ymm4,%ymm0,%ymm0
- DB 196,227,125,57,212,1 ; vextracti128 $0x1,%ymm2,%xmm4
- DB 196,98,125,48,196 ; vpmovzxbw %xmm4,%ymm8
- DB 196,226,125,48,234 ; vpmovzxbw %xmm2,%ymm5
- DB 196,227,125,57,222,1 ; vextracti128 $0x1,%ymm3,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,251 ; vpmovzxbw %xmm3,%ymm7
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,98,125,48,204 ; vpmovzxbw %xmm4,%ymm9
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,204,1 ; vextracti128 $0x1,%ymm1,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 197,197,213,201 ; vpmullw %ymm1,%ymm7,%ymm1
- DB 197,205,213,228 ; vpmullw %ymm4,%ymm6,%ymm4
- DB 197,213,213,192 ; vpmullw %ymm0,%ymm5,%ymm0
- DB 196,65,61,213,201 ; vpmullw %ymm9,%ymm8,%ymm9
- DB 196,65,53,253,192 ; vpaddw %ymm8,%ymm9,%ymm8
- DB 197,253,253,197 ; vpaddw %ymm5,%ymm0,%ymm0
- DB 197,221,253,230 ; vpaddw %ymm6,%ymm4,%ymm4
- DB 197,245,253,207 ; vpaddw %ymm7,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 196,193,85,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm5
- DB 196,227,125,56,245,1 ; vinserti128 $0x1,%xmm5,%ymm0,%ymm6
- DB 196,227,125,70,197,49 ; vperm2i128 $0x31,%ymm5,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,227,117,56,236,1 ; vinserti128 $0x1,%xmm4,%ymm1,%ymm5
- DB 196,227,117,70,204,49 ; vperm2i128 $0x31,%ymm4,%ymm1,%ymm1
- DB 197,213,103,201 ; vpackuswb %ymm1,%ymm5,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_hsw_8bit
-_sk_srcover_hsw_8bit LABEL PROC
- DB 197,253,111,37,251,231,0,0 ; vmovdqa 0xe7fb(%rip),%ymm4 # 33e00 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
- DB 196,226,117,0,236 ; vpshufb %ymm4,%ymm1,%ymm5
- DB 196,226,125,0,228 ; vpshufb %ymm4,%ymm0,%ymm4
- DB 196,227,125,57,214,1 ; vextracti128 $0x1,%ymm2,%xmm6
- DB 196,98,125,48,198 ; vpmovzxbw %xmm6,%ymm8
- DB 196,98,125,48,210 ; vpmovzxbw %xmm2,%ymm10
- DB 196,227,125,57,222,1 ; vextracti128 $0x1,%ymm3,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,98,125,48,203 ; vpmovzxbw %xmm3,%ymm9
- DB 196,227,125,57,231,1 ; vextracti128 $0x1,%ymm4,%xmm7
- DB 196,98,125,48,223 ; vpmovzxbw %xmm7,%ymm11
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,227,125,57,239,1 ; vextracti128 $0x1,%ymm5,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 197,181,213,237 ; vpmullw %ymm5,%ymm9,%ymm5
- DB 197,205,213,255 ; vpmullw %ymm7,%ymm6,%ymm7
- DB 197,173,213,228 ; vpmullw %ymm4,%ymm10,%ymm4
- DB 196,65,61,213,219 ; vpmullw %ymm11,%ymm8,%ymm11
- DB 196,65,37,253,192 ; vpaddw %ymm8,%ymm11,%ymm8
- DB 196,193,93,253,226 ; vpaddw %ymm10,%ymm4,%ymm4
- DB 197,197,253,246 ; vpaddw %ymm6,%ymm7,%ymm6
- DB 196,193,85,253,233 ; vpaddw %ymm9,%ymm5,%ymm5
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 196,193,69,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm7
- DB 196,99,93,56,199,1 ; vinserti128 $0x1,%xmm7,%ymm4,%ymm8
- DB 196,227,93,70,231,49 ; vperm2i128 $0x31,%ymm7,%ymm4,%ymm4
- DB 197,189,103,228 ; vpackuswb %ymm4,%ymm8,%ymm4
- DB 196,227,85,56,254,1 ; vinserti128 $0x1,%xmm6,%ymm5,%ymm7
- DB 196,227,85,70,238,49 ; vperm2i128 $0x31,%ymm6,%ymm5,%ymm5
- DB 197,197,103,237 ; vpackuswb %ymm5,%ymm7,%ymm5
- DB 197,229,252,201 ; vpaddb %ymm1,%ymm3,%ymm1
- DB 197,245,248,205 ; vpsubb %ymm5,%ymm1,%ymm1
- DB 197,237,252,192 ; vpaddb %ymm0,%ymm2,%ymm0
- DB 197,253,248,196 ; vpsubb %ymm4,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstover_hsw_8bit
-_sk_dstover_hsw_8bit LABEL PROC
- DB 197,253,111,37,92,231,0,0 ; vmovdqa 0xe75c(%rip),%ymm4 # 33e20 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- DB 196,226,101,0,236 ; vpshufb %ymm4,%ymm3,%ymm5
- DB 196,226,109,0,228 ; vpshufb %ymm4,%ymm2,%ymm4
- DB 196,227,125,57,198,1 ; vextracti128 $0x1,%ymm0,%xmm6
- DB 196,98,125,48,198 ; vpmovzxbw %xmm6,%ymm8
- DB 196,98,125,48,208 ; vpmovzxbw %xmm0,%ymm10
- DB 196,227,125,57,206,1 ; vextracti128 $0x1,%ymm1,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,98,125,48,201 ; vpmovzxbw %xmm1,%ymm9
- DB 196,227,125,57,231,1 ; vextracti128 $0x1,%ymm4,%xmm7
- DB 196,98,125,48,223 ; vpmovzxbw %xmm7,%ymm11
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,227,125,57,239,1 ; vextracti128 $0x1,%ymm5,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,193,85,213,233 ; vpmullw %ymm9,%ymm5,%ymm5
- DB 197,197,213,254 ; vpmullw %ymm6,%ymm7,%ymm7
- DB 196,193,93,213,226 ; vpmullw %ymm10,%ymm4,%ymm4
- DB 196,65,37,213,216 ; vpmullw %ymm8,%ymm11,%ymm11
- DB 196,65,37,253,192 ; vpaddw %ymm8,%ymm11,%ymm8
- DB 196,193,93,253,226 ; vpaddw %ymm10,%ymm4,%ymm4
- DB 197,197,253,246 ; vpaddw %ymm6,%ymm7,%ymm6
- DB 196,193,85,253,233 ; vpaddw %ymm9,%ymm5,%ymm5
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 196,193,69,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm7
- DB 196,99,93,56,199,1 ; vinserti128 $0x1,%xmm7,%ymm4,%ymm8
- DB 196,227,93,70,231,49 ; vperm2i128 $0x31,%ymm7,%ymm4,%ymm4
- DB 197,189,103,228 ; vpackuswb %ymm4,%ymm8,%ymm4
- DB 196,227,85,56,254,1 ; vinserti128 $0x1,%xmm6,%ymm5,%ymm7
- DB 196,227,85,70,238,49 ; vperm2i128 $0x31,%ymm6,%ymm5,%ymm5
- DB 197,197,103,237 ; vpackuswb %ymm5,%ymm7,%ymm5
- DB 197,229,252,201 ; vpaddb %ymm1,%ymm3,%ymm1
- DB 197,245,248,205 ; vpsubb %ymm5,%ymm1,%ymm1
- DB 197,237,252,192 ; vpaddb %ymm0,%ymm2,%ymm0
- DB 197,253,248,196 ; vpsubb %ymm4,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_modulate_hsw_8bit
-_sk_modulate_hsw_8bit LABEL PROC
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,205,1 ; vextracti128 $0x1,%ymm1,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 196,227,125,57,214,1 ; vextracti128 $0x1,%ymm2,%xmm6
- DB 196,98,125,48,198 ; vpmovzxbw %xmm6,%ymm8
- DB 196,226,125,48,250 ; vpmovzxbw %xmm2,%ymm7
- DB 196,227,125,57,222,1 ; vextracti128 $0x1,%ymm3,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,98,125,48,203 ; vpmovzxbw %xmm3,%ymm9
- DB 197,53,213,201 ; vpmullw %ymm1,%ymm9,%ymm9
- DB 197,205,213,245 ; vpmullw %ymm5,%ymm6,%ymm6
- DB 197,197,213,248 ; vpmullw %ymm0,%ymm7,%ymm7
- DB 197,61,213,196 ; vpmullw %ymm4,%ymm8,%ymm8
- DB 197,189,253,228 ; vpaddw %ymm4,%ymm8,%ymm4
- DB 197,197,253,192 ; vpaddw %ymm0,%ymm7,%ymm0
- DB 197,205,253,237 ; vpaddw %ymm5,%ymm6,%ymm5
- DB 197,181,253,201 ; vpaddw %ymm1,%ymm9,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 196,227,125,56,244,1 ; vinserti128 $0x1,%xmm4,%ymm0,%ymm6
- DB 196,227,125,70,196,49 ; vperm2i128 $0x31,%ymm4,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,227,117,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm1,%ymm4
- DB 196,227,117,70,205,49 ; vperm2i128 $0x31,%ymm5,%ymm1,%ymm1
- DB 197,221,103,201 ; vpackuswb %ymm1,%ymm4,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_multiply_hsw_8bit
-_sk_multiply_hsw_8bit LABEL PROC
- DB 197,125,111,21,35,230,0,0 ; vmovdqa 0xe623(%rip),%ymm10 # 33e40 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
- DB 196,194,109,0,226 ; vpshufb %ymm10,%ymm2,%ymm4
- DB 196,194,101,0,234 ; vpshufb %ymm10,%ymm3,%ymm5
- DB 196,65,37,118,219 ; vpcmpeqd %ymm11,%ymm11,%ymm11
- DB 196,65,85,239,195 ; vpxor %ymm11,%ymm5,%ymm8
- DB 196,65,93,239,203 ; vpxor %ymm11,%ymm4,%ymm9
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,98,125,48,236 ; vpmovzxbw %xmm4,%ymm13
- DB 196,98,125,48,240 ; vpmovzxbw %xmm0,%ymm14
- DB 196,227,125,57,206,1 ; vextracti128 $0x1,%ymm1,%xmm6
- DB 196,98,125,48,254 ; vpmovzxbw %xmm6,%ymm15
- DB 196,226,125,48,249 ; vpmovzxbw %xmm1,%ymm7
- DB 196,99,125,57,204,1 ; vextracti128 $0x1,%ymm9,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,66,125,48,201 ; vpmovzxbw %xmm9,%ymm9
- DB 196,99,125,57,197,1 ; vextracti128 $0x1,%ymm8,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,66,125,48,192 ; vpmovzxbw %xmm8,%ymm8
- DB 197,61,213,199 ; vpmullw %ymm7,%ymm8,%ymm8
- DB 196,193,85,213,239 ; vpmullw %ymm15,%ymm5,%ymm5
- DB 196,65,53,213,206 ; vpmullw %ymm14,%ymm9,%ymm9
- DB 196,193,93,213,229 ; vpmullw %ymm13,%ymm4,%ymm4
- DB 196,193,93,253,229 ; vpaddw %ymm13,%ymm4,%ymm4
- DB 196,65,53,253,206 ; vpaddw %ymm14,%ymm9,%ymm9
- DB 196,193,85,253,239 ; vpaddw %ymm15,%ymm5,%ymm5
- DB 197,61,253,199 ; vpaddw %ymm7,%ymm8,%ymm8
- DB 196,193,29,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm12
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 196,193,61,113,209,8 ; vpsrlw $0x8,%ymm9,%ymm8
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 196,99,61,56,204,1 ; vinserti128 $0x1,%xmm4,%ymm8,%ymm9
- DB 196,227,61,70,228,49 ; vperm2i128 $0x31,%ymm4,%ymm8,%ymm4
- DB 197,53,103,196 ; vpackuswb %ymm4,%ymm9,%ymm8
- DB 196,227,29,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm12,%ymm4
- DB 196,227,29,70,237,49 ; vperm2i128 $0x31,%ymm5,%ymm12,%ymm5
- DB 197,93,103,205 ; vpackuswb %ymm5,%ymm4,%ymm9
- DB 196,194,125,0,194 ; vpshufb %ymm10,%ymm0,%ymm0
- DB 196,194,117,0,202 ; vpshufb %ymm10,%ymm1,%ymm1
- DB 196,65,117,239,227 ; vpxor %ymm11,%ymm1,%ymm12
- DB 196,193,125,239,227 ; vpxor %ymm11,%ymm0,%ymm4
- DB 196,227,125,57,208,1 ; vextracti128 $0x1,%ymm2,%xmm0
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,226,125,48,202 ; vpmovzxbw %xmm2,%ymm1
- DB 196,227,125,57,221,1 ; vextracti128 $0x1,%ymm3,%xmm5
- DB 196,98,125,48,213 ; vpmovzxbw %xmm5,%ymm10
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 197,245,213,228 ; vpmullw %ymm4,%ymm1,%ymm4
- DB 197,253,213,237 ; vpmullw %ymm5,%ymm0,%ymm5
- DB 197,213,253,232 ; vpaddw %ymm0,%ymm5,%ymm5
- DB 197,221,253,225 ; vpaddw %ymm1,%ymm4,%ymm4
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 196,99,93,56,221,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm11
- DB 196,227,93,70,229,49 ; vperm2i128 $0x31,%ymm5,%ymm4,%ymm4
- DB 196,226,125,48,235 ; vpmovzxbw %xmm3,%ymm5
- DB 197,165,103,228 ; vpackuswb %ymm4,%ymm11,%ymm4
- DB 196,99,125,57,230,1 ; vextracti128 $0x1,%ymm12,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,66,125,48,220 ; vpmovzxbw %xmm12,%ymm11
- DB 196,65,85,213,219 ; vpmullw %ymm11,%ymm5,%ymm11
- DB 197,173,213,246 ; vpmullw %ymm6,%ymm10,%ymm6
- DB 196,193,77,253,242 ; vpaddw %ymm10,%ymm6,%ymm6
- DB 197,37,253,221 ; vpaddw %ymm5,%ymm11,%ymm11
- DB 196,193,37,113,211,8 ; vpsrlw $0x8,%ymm11,%ymm11
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 196,193,93,252,224 ; vpaddb %ymm8,%ymm4,%ymm4
- DB 196,99,37,56,198,1 ; vinserti128 $0x1,%xmm6,%ymm11,%ymm8
- DB 196,227,37,70,246,49 ; vperm2i128 $0x31,%ymm6,%ymm11,%ymm6
- DB 197,189,103,246 ; vpackuswb %ymm6,%ymm8,%ymm6
- DB 196,193,77,252,241 ; vpaddb %ymm9,%ymm6,%ymm6
- DB 196,193,125,213,197 ; vpmullw %ymm13,%ymm0,%ymm0
- DB 196,193,125,253,197 ; vpaddw %ymm13,%ymm0,%ymm0
- DB 196,193,117,213,206 ; vpmullw %ymm14,%ymm1,%ymm1
- DB 196,193,117,253,206 ; vpaddw %ymm14,%ymm1,%ymm1
- DB 196,65,45,213,199 ; vpmullw %ymm15,%ymm10,%ymm8
- DB 196,65,61,253,199 ; vpaddw %ymm15,%ymm8,%ymm8
- DB 197,213,213,239 ; vpmullw %ymm7,%ymm5,%ymm5
- DB 197,213,253,239 ; vpaddw %ymm7,%ymm5,%ymm5
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 196,227,117,56,248,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm7
- DB 196,227,117,70,192,49 ; vperm2i128 $0x31,%ymm0,%ymm1,%ymm0
- DB 197,197,103,192 ; vpackuswb %ymm0,%ymm7,%ymm0
- DB 197,245,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm1
- DB 196,193,85,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm5
- DB 197,221,252,192 ; vpaddb %ymm0,%ymm4,%ymm0
- DB 196,227,117,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm1,%ymm4
- DB 196,227,117,70,205,49 ; vperm2i128 $0x31,%ymm5,%ymm1,%ymm1
- DB 197,221,103,201 ; vpackuswb %ymm1,%ymm4,%ymm1
- DB 197,205,252,201 ; vpaddb %ymm1,%ymm6,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_screen_hsw_8bit
-_sk_screen_hsw_8bit LABEL PROC
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,245,239,236 ; vpxor %ymm4,%ymm1,%ymm5
- DB 197,253,239,228 ; vpxor %ymm4,%ymm0,%ymm4
- DB 196,227,125,57,230,1 ; vextracti128 $0x1,%ymm4,%xmm6
- DB 196,98,125,48,198 ; vpmovzxbw %xmm6,%ymm8
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,227,125,57,239,1 ; vextracti128 $0x1,%ymm5,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,227,125,57,214,1 ; vextracti128 $0x1,%ymm2,%xmm6
- DB 196,98,125,48,214 ; vpmovzxbw %xmm6,%ymm10
- DB 196,98,125,48,202 ; vpmovzxbw %xmm2,%ymm9
- DB 196,227,125,57,222,1 ; vextracti128 $0x1,%ymm3,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,98,125,48,219 ; vpmovzxbw %xmm3,%ymm11
- DB 197,37,213,221 ; vpmullw %ymm5,%ymm11,%ymm11
- DB 197,205,213,247 ; vpmullw %ymm7,%ymm6,%ymm6
- DB 197,53,213,204 ; vpmullw %ymm4,%ymm9,%ymm9
- DB 196,65,45,213,208 ; vpmullw %ymm8,%ymm10,%ymm10
- DB 196,65,45,253,192 ; vpaddw %ymm8,%ymm10,%ymm8
- DB 197,181,253,228 ; vpaddw %ymm4,%ymm9,%ymm4
- DB 197,205,253,247 ; vpaddw %ymm7,%ymm6,%ymm6
- DB 197,165,253,237 ; vpaddw %ymm5,%ymm11,%ymm5
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 196,193,69,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm7
- DB 196,99,93,56,199,1 ; vinserti128 $0x1,%xmm7,%ymm4,%ymm8
- DB 196,227,93,70,231,49 ; vperm2i128 $0x31,%ymm7,%ymm4,%ymm4
- DB 197,189,103,228 ; vpackuswb %ymm4,%ymm8,%ymm4
- DB 196,227,85,56,254,1 ; vinserti128 $0x1,%xmm6,%ymm5,%ymm7
- DB 196,227,85,70,238,49 ; vperm2i128 $0x31,%ymm6,%ymm5,%ymm5
- DB 197,197,103,237 ; vpackuswb %ymm5,%ymm7,%ymm5
- DB 197,221,252,192 ; vpaddb %ymm0,%ymm4,%ymm0
- DB 197,213,252,201 ; vpaddb %ymm1,%ymm5,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xor__hsw_8bit
-_sk_xor__hsw_8bit LABEL PROC
- DB 197,125,111,5,187,227,0,0 ; vmovdqa 0xe3bb(%rip),%ymm8 # 33e60 <_sk_srcover_rgba_8888_sse2_lowp+0xa2c>
- DB 196,194,109,0,240 ; vpshufb %ymm8,%ymm2,%ymm6
- DB 196,194,101,0,248 ; vpshufb %ymm8,%ymm3,%ymm7
- DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
- DB 196,193,69,239,250 ; vpxor %ymm10,%ymm7,%ymm7
- DB 196,193,77,239,242 ; vpxor %ymm10,%ymm6,%ymm6
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,98,125,48,228 ; vpmovzxbw %xmm4,%ymm12
- DB 196,98,125,48,200 ; vpmovzxbw %xmm0,%ymm9
- DB 196,227,125,57,205,1 ; vextracti128 $0x1,%ymm1,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,98,125,48,217 ; vpmovzxbw %xmm1,%ymm11
- DB 196,227,125,57,244,1 ; vextracti128 $0x1,%ymm6,%xmm4
- DB 196,98,125,48,236 ; vpmovzxbw %xmm4,%ymm13
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,193,69,213,251 ; vpmullw %ymm11,%ymm7,%ymm7
- DB 197,221,213,229 ; vpmullw %ymm5,%ymm4,%ymm4
- DB 196,193,77,213,241 ; vpmullw %ymm9,%ymm6,%ymm6
- DB 196,65,21,213,236 ; vpmullw %ymm12,%ymm13,%ymm13
- DB 196,65,21,253,228 ; vpaddw %ymm12,%ymm13,%ymm12
- DB 196,193,77,253,241 ; vpaddw %ymm9,%ymm6,%ymm6
- DB 197,221,253,229 ; vpaddw %ymm5,%ymm4,%ymm4
- DB 196,193,69,253,235 ; vpaddw %ymm11,%ymm7,%ymm5
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 196,193,69,113,212,8 ; vpsrlw $0x8,%ymm12,%ymm7
- DB 196,99,77,56,207,1 ; vinserti128 $0x1,%xmm7,%ymm6,%ymm9
- DB 196,227,77,70,247,49 ; vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- DB 197,53,103,222 ; vpackuswb %ymm6,%ymm9,%ymm11
- DB 196,227,85,56,244,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm6
- DB 196,227,85,70,228,49 ; vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- DB 197,77,103,204 ; vpackuswb %ymm4,%ymm6,%ymm9
- DB 196,194,125,0,192 ; vpshufb %ymm8,%ymm0,%ymm0
- DB 196,194,117,0,200 ; vpshufb %ymm8,%ymm1,%ymm1
- DB 196,193,117,239,202 ; vpxor %ymm10,%ymm1,%ymm1
- DB 196,193,125,239,194 ; vpxor %ymm10,%ymm0,%ymm0
- DB 196,227,125,57,212,1 ; vextracti128 $0x1,%ymm2,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,226,125,48,234 ; vpmovzxbw %xmm2,%ymm5
- DB 196,227,125,57,222,1 ; vextracti128 $0x1,%ymm3,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,98,125,48,195 ; vpmovzxbw %xmm3,%ymm8
- DB 196,227,125,57,199,1 ; vextracti128 $0x1,%ymm0,%xmm7
- DB 196,98,125,48,215 ; vpmovzxbw %xmm7,%ymm10
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,227,125,57,207,1 ; vextracti128 $0x1,%ymm1,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,201 ; vpmovzxbw %xmm1,%ymm1
- DB 197,189,213,201 ; vpmullw %ymm1,%ymm8,%ymm1
- DB 197,205,213,255 ; vpmullw %ymm7,%ymm6,%ymm7
- DB 197,213,213,192 ; vpmullw %ymm0,%ymm5,%ymm0
- DB 196,65,93,213,210 ; vpmullw %ymm10,%ymm4,%ymm10
- DB 197,173,253,228 ; vpaddw %ymm4,%ymm10,%ymm4
- DB 197,253,253,197 ; vpaddw %ymm5,%ymm0,%ymm0
- DB 197,197,253,238 ; vpaddw %ymm6,%ymm7,%ymm5
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 196,227,125,56,244,1 ; vinserti128 $0x1,%xmm4,%ymm0,%ymm6
- DB 196,227,125,70,196,49 ; vperm2i128 $0x31,%ymm4,%ymm0,%ymm0
- DB 197,205,103,192 ; vpackuswb %ymm0,%ymm6,%ymm0
- DB 196,193,125,252,195 ; vpaddb %ymm11,%ymm0,%ymm0
- DB 196,227,117,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm1,%ymm4
- DB 196,227,117,70,205,49 ; vperm2i128 $0x31,%ymm5,%ymm1,%ymm1
- DB 197,221,103,201 ; vpackuswb %ymm1,%ymm4,%ymm1
- DB 196,193,117,252,201 ; vpaddb %ymm9,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_plus__hsw_8bit
-_sk_plus__hsw_8bit LABEL PROC
- DB 197,253,220,194 ; vpaddusb %ymm2,%ymm0,%ymm0
- DB 197,245,220,203 ; vpaddusb %ymm3,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_darken_hsw_8bit
-_sk_darken_hsw_8bit LABEL PROC
- DB 197,125,111,13,91,226,0,0 ; vmovdqa 0xe25b(%rip),%ymm9 # 33e80 <_sk_srcover_rgba_8888_sse2_lowp+0xa4c>
- DB 196,194,101,0,225 ; vpshufb %ymm9,%ymm3,%ymm4
- DB 196,194,109,0,241 ; vpshufb %ymm9,%ymm2,%ymm6
- DB 196,227,125,57,199,1 ; vextracti128 $0x1,%ymm0,%xmm7
- DB 196,98,125,48,223 ; vpmovzxbw %xmm7,%ymm11
- DB 196,98,125,48,192 ; vpmovzxbw %xmm0,%ymm8
- DB 196,227,125,57,205,1 ; vextracti128 $0x1,%ymm1,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,98,125,48,209 ; vpmovzxbw %xmm1,%ymm10
- DB 196,227,125,57,247,1 ; vextracti128 $0x1,%ymm6,%xmm7
- DB 196,98,125,48,231 ; vpmovzxbw %xmm7,%ymm12
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,227,125,57,231,1 ; vextracti128 $0x1,%ymm4,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,193,93,213,226 ; vpmullw %ymm10,%ymm4,%ymm4
- DB 197,197,213,253 ; vpmullw %ymm5,%ymm7,%ymm7
- DB 196,193,77,213,240 ; vpmullw %ymm8,%ymm6,%ymm6
- DB 196,65,29,213,227 ; vpmullw %ymm11,%ymm12,%ymm12
- DB 196,65,29,253,219 ; vpaddw %ymm11,%ymm12,%ymm11
- DB 196,193,77,253,240 ; vpaddw %ymm8,%ymm6,%ymm6
- DB 197,197,253,237 ; vpaddw %ymm5,%ymm7,%ymm5
- DB 196,193,93,253,226 ; vpaddw %ymm10,%ymm4,%ymm4
- DB 197,197,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm7
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,221,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm4
- DB 196,193,77,113,211,8 ; vpsrlw $0x8,%ymm11,%ymm6
- DB 196,99,93,56,198,1 ; vinserti128 $0x1,%xmm6,%ymm4,%ymm8
- DB 196,227,93,70,230,49 ; vperm2i128 $0x31,%ymm6,%ymm4,%ymm4
- DB 197,61,103,196 ; vpackuswb %ymm4,%ymm8,%ymm8
- DB 196,227,69,56,245,1 ; vinserti128 $0x1,%xmm5,%ymm7,%ymm6
- DB 196,227,69,70,237,49 ; vperm2i128 $0x31,%ymm5,%ymm7,%ymm5
- DB 197,77,103,213 ; vpackuswb %ymm5,%ymm6,%ymm10
- DB 196,194,117,0,233 ; vpshufb %ymm9,%ymm1,%ymm5
- DB 196,194,125,0,249 ; vpshufb %ymm9,%ymm0,%ymm7
- DB 196,227,125,57,212,1 ; vextracti128 $0x1,%ymm2,%xmm4
- DB 196,98,125,48,228 ; vpmovzxbw %xmm4,%ymm12
- DB 196,98,125,48,202 ; vpmovzxbw %xmm2,%ymm9
- DB 196,227,125,57,222,1 ; vextracti128 $0x1,%ymm3,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,98,125,48,219 ; vpmovzxbw %xmm3,%ymm11
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,98,125,48,236 ; vpmovzxbw %xmm4,%ymm13
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,227,125,57,236,1 ; vextracti128 $0x1,%ymm5,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 197,165,213,237 ; vpmullw %ymm5,%ymm11,%ymm5
- DB 197,205,213,228 ; vpmullw %ymm4,%ymm6,%ymm4
- DB 197,181,213,255 ; vpmullw %ymm7,%ymm9,%ymm7
- DB 196,65,29,213,237 ; vpmullw %ymm13,%ymm12,%ymm13
- DB 196,65,21,253,228 ; vpaddw %ymm12,%ymm13,%ymm12
- DB 196,193,69,253,249 ; vpaddw %ymm9,%ymm7,%ymm7
- DB 197,221,253,230 ; vpaddw %ymm6,%ymm4,%ymm4
- DB 196,193,85,253,235 ; vpaddw %ymm11,%ymm5,%ymm5
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,205,113,215,8 ; vpsrlw $0x8,%ymm7,%ymm6
- DB 196,193,69,113,212,8 ; vpsrlw $0x8,%ymm12,%ymm7
- DB 196,99,77,56,207,1 ; vinserti128 $0x1,%xmm7,%ymm6,%ymm9
- DB 196,227,77,70,247,49 ; vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- DB 197,181,103,246 ; vpackuswb %ymm6,%ymm9,%ymm6
- DB 196,227,85,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- DB 196,227,85,70,228,49 ; vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- DB 197,197,103,228 ; vpackuswb %ymm4,%ymm7,%ymm4
- DB 197,189,222,238 ; vpmaxub %ymm6,%ymm8,%ymm5
- DB 197,173,222,252 ; vpmaxub %ymm4,%ymm10,%ymm7
- DB 197,237,252,192 ; vpaddb %ymm0,%ymm2,%ymm0
- DB 197,229,252,201 ; vpaddb %ymm1,%ymm3,%ymm1
- DB 197,245,248,255 ; vpsubb %ymm7,%ymm1,%ymm7
- DB 197,253,248,237 ; vpsubb %ymm5,%ymm0,%ymm5
- DB 197,245,248,204 ; vpsubb %ymm4,%ymm1,%ymm1
- DB 197,253,248,198 ; vpsubb %ymm6,%ymm0,%ymm0
- DB 196,226,125,88,37,190,228,0,0 ; vpbroadcastd 0xe4be(%rip),%ymm4 # 34254 <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
- DB 196,227,125,76,197,64 ; vpblendvb %ymm4,%ymm5,%ymm0,%ymm0
- DB 196,227,117,76,207,64 ; vpblendvb %ymm4,%ymm7,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lighten_hsw_8bit
-_sk_lighten_hsw_8bit LABEL PROC
- DB 197,125,111,13,242,224,0,0 ; vmovdqa 0xe0f2(%rip),%ymm9 # 33ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xa6c>
- DB 196,194,101,0,225 ; vpshufb %ymm9,%ymm3,%ymm4
- DB 196,194,109,0,241 ; vpshufb %ymm9,%ymm2,%ymm6
- DB 196,227,125,57,199,1 ; vextracti128 $0x1,%ymm0,%xmm7
- DB 196,98,125,48,223 ; vpmovzxbw %xmm7,%ymm11
- DB 196,98,125,48,192 ; vpmovzxbw %xmm0,%ymm8
- DB 196,227,125,57,205,1 ; vextracti128 $0x1,%ymm1,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,98,125,48,209 ; vpmovzxbw %xmm1,%ymm10
- DB 196,227,125,57,247,1 ; vextracti128 $0x1,%ymm6,%xmm7
- DB 196,98,125,48,231 ; vpmovzxbw %xmm7,%ymm12
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,227,125,57,231,1 ; vextracti128 $0x1,%ymm4,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,193,93,213,226 ; vpmullw %ymm10,%ymm4,%ymm4
- DB 197,197,213,253 ; vpmullw %ymm5,%ymm7,%ymm7
- DB 196,193,77,213,240 ; vpmullw %ymm8,%ymm6,%ymm6
- DB 196,65,29,213,227 ; vpmullw %ymm11,%ymm12,%ymm12
- DB 196,65,29,253,219 ; vpaddw %ymm11,%ymm12,%ymm11
- DB 196,193,77,253,240 ; vpaddw %ymm8,%ymm6,%ymm6
- DB 197,197,253,237 ; vpaddw %ymm5,%ymm7,%ymm5
- DB 196,193,93,253,226 ; vpaddw %ymm10,%ymm4,%ymm4
- DB 197,197,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm7
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,221,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm4
- DB 196,193,77,113,211,8 ; vpsrlw $0x8,%ymm11,%ymm6
- DB 196,99,93,56,198,1 ; vinserti128 $0x1,%xmm6,%ymm4,%ymm8
- DB 196,227,93,70,230,49 ; vperm2i128 $0x31,%ymm6,%ymm4,%ymm4
- DB 197,61,103,196 ; vpackuswb %ymm4,%ymm8,%ymm8
- DB 196,227,69,56,245,1 ; vinserti128 $0x1,%xmm5,%ymm7,%ymm6
- DB 196,227,69,70,237,49 ; vperm2i128 $0x31,%ymm5,%ymm7,%ymm5
- DB 197,77,103,213 ; vpackuswb %ymm5,%ymm6,%ymm10
- DB 196,194,117,0,233 ; vpshufb %ymm9,%ymm1,%ymm5
- DB 196,194,125,0,249 ; vpshufb %ymm9,%ymm0,%ymm7
- DB 196,227,125,57,212,1 ; vextracti128 $0x1,%ymm2,%xmm4
- DB 196,98,125,48,228 ; vpmovzxbw %xmm4,%ymm12
- DB 196,98,125,48,202 ; vpmovzxbw %xmm2,%ymm9
- DB 196,227,125,57,222,1 ; vextracti128 $0x1,%ymm3,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,98,125,48,219 ; vpmovzxbw %xmm3,%ymm11
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,98,125,48,236 ; vpmovzxbw %xmm4,%ymm13
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,227,125,57,236,1 ; vextracti128 $0x1,%ymm5,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 197,165,213,237 ; vpmullw %ymm5,%ymm11,%ymm5
- DB 197,205,213,228 ; vpmullw %ymm4,%ymm6,%ymm4
- DB 197,181,213,255 ; vpmullw %ymm7,%ymm9,%ymm7
- DB 196,65,29,213,237 ; vpmullw %ymm13,%ymm12,%ymm13
- DB 196,65,21,253,228 ; vpaddw %ymm12,%ymm13,%ymm12
- DB 196,193,69,253,249 ; vpaddw %ymm9,%ymm7,%ymm7
- DB 197,221,253,230 ; vpaddw %ymm6,%ymm4,%ymm4
- DB 196,193,85,253,235 ; vpaddw %ymm11,%ymm5,%ymm5
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,205,113,215,8 ; vpsrlw $0x8,%ymm7,%ymm6
- DB 196,193,69,113,212,8 ; vpsrlw $0x8,%ymm12,%ymm7
- DB 196,99,77,56,207,1 ; vinserti128 $0x1,%xmm7,%ymm6,%ymm9
- DB 196,227,77,70,247,49 ; vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- DB 197,181,103,246 ; vpackuswb %ymm6,%ymm9,%ymm6
- DB 196,227,85,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- DB 196,227,85,70,228,49 ; vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- DB 197,197,103,228 ; vpackuswb %ymm4,%ymm7,%ymm4
- DB 197,189,218,238 ; vpminub %ymm6,%ymm8,%ymm5
- DB 197,173,218,252 ; vpminub %ymm4,%ymm10,%ymm7
- DB 197,237,252,192 ; vpaddb %ymm0,%ymm2,%ymm0
- DB 197,229,252,201 ; vpaddb %ymm1,%ymm3,%ymm1
- DB 197,245,248,255 ; vpsubb %ymm7,%ymm1,%ymm7
- DB 197,253,248,237 ; vpsubb %ymm5,%ymm0,%ymm5
- DB 197,245,248,204 ; vpsubb %ymm4,%ymm1,%ymm1
- DB 197,253,248,198 ; vpsubb %ymm6,%ymm0,%ymm0
- DB 196,226,125,88,37,53,227,0,0 ; vpbroadcastd 0xe335(%rip),%ymm4 # 34254 <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
- DB 196,227,125,76,197,64 ; vpblendvb %ymm4,%ymm5,%ymm0,%ymm0
- DB 196,227,117,76,207,64 ; vpblendvb %ymm4,%ymm7,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_exclusion_hsw_8bit
-_sk_exclusion_hsw_8bit LABEL PROC
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,98,125,48,196 ; vpmovzxbw %xmm4,%ymm8
- DB 196,226,125,48,232 ; vpmovzxbw %xmm0,%ymm5
- DB 196,227,125,57,206,1 ; vextracti128 $0x1,%ymm1,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,226,125,48,249 ; vpmovzxbw %xmm1,%ymm7
- DB 196,227,125,57,212,1 ; vextracti128 $0x1,%ymm2,%xmm4
- DB 196,98,125,48,212 ; vpmovzxbw %xmm4,%ymm10
- DB 196,98,125,48,202 ; vpmovzxbw %xmm2,%ymm9
- DB 196,227,125,57,220,1 ; vextracti128 $0x1,%ymm3,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,98,125,48,219 ; vpmovzxbw %xmm3,%ymm11
- DB 197,37,213,223 ; vpmullw %ymm7,%ymm11,%ymm11
- DB 197,221,213,230 ; vpmullw %ymm6,%ymm4,%ymm4
- DB 197,53,213,205 ; vpmullw %ymm5,%ymm9,%ymm9
- DB 196,65,45,213,208 ; vpmullw %ymm8,%ymm10,%ymm10
- DB 196,65,45,253,192 ; vpaddw %ymm8,%ymm10,%ymm8
- DB 197,181,253,237 ; vpaddw %ymm5,%ymm9,%ymm5
- DB 197,221,253,230 ; vpaddw %ymm6,%ymm4,%ymm4
- DB 197,165,253,247 ; vpaddw %ymm7,%ymm11,%ymm6
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 196,193,69,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm7
- DB 196,99,85,56,199,1 ; vinserti128 $0x1,%xmm7,%ymm5,%ymm8
- DB 196,227,85,70,239,49 ; vperm2i128 $0x31,%ymm7,%ymm5,%ymm5
- DB 197,189,103,237 ; vpackuswb %ymm5,%ymm8,%ymm5
- DB 196,227,77,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm6,%ymm7
- DB 196,227,77,70,228,49 ; vperm2i128 $0x31,%ymm4,%ymm6,%ymm4
- DB 197,197,103,228 ; vpackuswb %ymm4,%ymm7,%ymm4
- DB 197,253,111,53,242,222,0,0 ; vmovdqa 0xdef2(%rip),%ymm6 # 33ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xa8c>
- DB 197,221,219,254 ; vpand %ymm6,%ymm4,%ymm7
- DB 197,213,219,246 ; vpand %ymm6,%ymm5,%ymm6
- DB 197,237,252,192 ; vpaddb %ymm0,%ymm2,%ymm0
- DB 197,229,252,201 ; vpaddb %ymm1,%ymm3,%ymm1
- DB 197,245,248,204 ; vpsubb %ymm4,%ymm1,%ymm1
- DB 197,245,248,207 ; vpsubb %ymm7,%ymm1,%ymm1
- DB 197,253,248,197 ; vpsubb %ymm5,%ymm0,%ymm0
- DB 197,253,248,198 ; vpsubb %ymm6,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_difference_hsw_8bit
-_sk_difference_hsw_8bit LABEL PROC
- DB 197,125,111,13,230,222,0,0 ; vmovdqa 0xdee6(%rip),%ymm9 # 33ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xaac>
- DB 196,194,101,0,233 ; vpshufb %ymm9,%ymm3,%ymm5
- DB 196,194,109,0,241 ; vpshufb %ymm9,%ymm2,%ymm6
- DB 196,227,125,57,199,1 ; vextracti128 $0x1,%ymm0,%xmm7
- DB 196,98,125,48,223 ; vpmovzxbw %xmm7,%ymm11
- DB 196,98,125,48,192 ; vpmovzxbw %xmm0,%ymm8
- DB 196,227,125,57,204,1 ; vextracti128 $0x1,%ymm1,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,98,125,48,209 ; vpmovzxbw %xmm1,%ymm10
- DB 196,227,125,57,247,1 ; vextracti128 $0x1,%ymm6,%xmm7
- DB 196,98,125,48,231 ; vpmovzxbw %xmm7,%ymm12
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,227,125,57,239,1 ; vextracti128 $0x1,%ymm5,%xmm7
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,193,85,213,234 ; vpmullw %ymm10,%ymm5,%ymm5
- DB 197,197,213,252 ; vpmullw %ymm4,%ymm7,%ymm7
- DB 196,193,77,213,240 ; vpmullw %ymm8,%ymm6,%ymm6
- DB 196,65,29,213,227 ; vpmullw %ymm11,%ymm12,%ymm12
- DB 196,65,29,253,219 ; vpaddw %ymm11,%ymm12,%ymm11
- DB 196,193,77,253,240 ; vpaddw %ymm8,%ymm6,%ymm6
- DB 197,197,253,228 ; vpaddw %ymm4,%ymm7,%ymm4
- DB 196,193,85,253,234 ; vpaddw %ymm10,%ymm5,%ymm5
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 196,193,69,113,211,8 ; vpsrlw $0x8,%ymm11,%ymm7
- DB 196,99,77,56,199,1 ; vinserti128 $0x1,%xmm7,%ymm6,%ymm8
- DB 196,227,77,70,247,49 ; vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- DB 197,61,103,214 ; vpackuswb %ymm6,%ymm8,%ymm10
- DB 196,227,85,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- DB 196,227,85,70,228,49 ; vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- DB 197,69,103,196 ; vpackuswb %ymm4,%ymm7,%ymm8
- DB 196,194,117,0,225 ; vpshufb %ymm9,%ymm1,%ymm4
- DB 196,194,125,0,249 ; vpshufb %ymm9,%ymm0,%ymm7
- DB 196,227,125,57,213,1 ; vextracti128 $0x1,%ymm2,%xmm5
- DB 196,98,125,48,229 ; vpmovzxbw %xmm5,%ymm12
- DB 196,98,125,48,202 ; vpmovzxbw %xmm2,%ymm9
- DB 196,227,125,57,222,1 ; vextracti128 $0x1,%ymm3,%xmm6
- DB 196,226,125,48,246 ; vpmovzxbw %xmm6,%ymm6
- DB 196,98,125,48,219 ; vpmovzxbw %xmm3,%ymm11
- DB 196,227,125,57,253,1 ; vextracti128 $0x1,%ymm7,%xmm5
- DB 196,98,125,48,237 ; vpmovzxbw %xmm5,%ymm13
- DB 196,226,125,48,255 ; vpmovzxbw %xmm7,%ymm7
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 197,165,213,228 ; vpmullw %ymm4,%ymm11,%ymm4
- DB 197,205,213,237 ; vpmullw %ymm5,%ymm6,%ymm5
- DB 197,181,213,255 ; vpmullw %ymm7,%ymm9,%ymm7
- DB 196,65,29,213,237 ; vpmullw %ymm13,%ymm12,%ymm13
- DB 196,65,21,253,228 ; vpaddw %ymm12,%ymm13,%ymm12
- DB 196,193,69,253,249 ; vpaddw %ymm9,%ymm7,%ymm7
- DB 197,213,253,238 ; vpaddw %ymm6,%ymm5,%ymm5
- DB 196,193,93,253,227 ; vpaddw %ymm11,%ymm4,%ymm4
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,205,113,215,8 ; vpsrlw $0x8,%ymm7,%ymm6
- DB 196,193,69,113,212,8 ; vpsrlw $0x8,%ymm12,%ymm7
- DB 196,99,77,56,207,1 ; vinserti128 $0x1,%xmm7,%ymm6,%ymm9
- DB 196,227,77,70,247,49 ; vperm2i128 $0x31,%ymm7,%ymm6,%ymm6
- DB 197,181,103,246 ; vpackuswb %ymm6,%ymm9,%ymm6
- DB 197,173,218,246 ; vpminub %ymm6,%ymm10,%ymm6
- DB 196,227,93,56,253,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm7
- DB 196,227,93,70,229,49 ; vperm2i128 $0x31,%ymm5,%ymm4,%ymm4
- DB 197,197,103,228 ; vpackuswb %ymm4,%ymm7,%ymm4
- DB 197,189,218,228 ; vpminub %ymm4,%ymm8,%ymm4
- DB 197,253,111,45,174,221,0,0 ; vmovdqa 0xddae(%rip),%ymm5 # 33f00 <_sk_srcover_rgba_8888_sse2_lowp+0xacc>
- DB 197,221,219,253 ; vpand %ymm5,%ymm4,%ymm7
- DB 197,205,219,237 ; vpand %ymm5,%ymm6,%ymm5
- DB 197,237,252,192 ; vpaddb %ymm0,%ymm2,%ymm0
- DB 197,229,252,201 ; vpaddb %ymm1,%ymm3,%ymm1
- DB 197,245,248,204 ; vpsubb %ymm4,%ymm1,%ymm1
- DB 197,245,248,207 ; vpsubb %ymm7,%ymm1,%ymm1
- DB 197,253,248,198 ; vpsubb %ymm6,%ymm0,%ymm0
- DB 197,253,248,197 ; vpsubb %ymm5,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hardlight_hsw_8bit
-_sk_hardlight_hsw_8bit LABEL PROC
- DB 72,129,236,24,1,0,0 ; sub $0x118,%rsp
- DB 197,253,111,235 ; vmovdqa %ymm3,%ymm5
- DB 197,125,111,193 ; vmovdqa %ymm1,%ymm8
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,226,125,48,204 ; vpmovzxbw %xmm4,%ymm1
- DB 196,226,125,48,216 ; vpmovzxbw %xmm0,%ymm3
- DB 197,125,111,45,131,221,0,0 ; vmovdqa 0xdd83(%rip),%ymm13 # 33f20 <_sk_srcover_rgba_8888_sse2_lowp+0xaec>
- DB 196,194,125,0,197 ; vpshufb %ymm13,%ymm0,%ymm0
- DB 196,226,125,48,224 ; vpmovzxbw %xmm0,%ymm4
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 196,226,125,48,248 ; vpmovzxbw %xmm0,%ymm7
- DB 197,254,127,148,36,224,0,0,0 ; vmovdqu %ymm2,0xe0(%rsp)
- DB 196,227,125,57,208,1 ; vextracti128 $0x1,%ymm2,%xmm0
- DB 196,226,125,48,240 ; vpmovzxbw %xmm0,%ymm6
- DB 196,98,125,48,202 ; vpmovzxbw %xmm2,%ymm9
- DB 196,66,109,0,221 ; vpshufb %ymm13,%ymm2,%ymm11
- DB 196,194,125,48,211 ; vpmovzxbw %xmm11,%ymm2
- DB 196,99,125,57,216,1 ; vextracti128 $0x1,%ymm11,%xmm0
- DB 196,98,125,48,208 ; vpmovzxbw %xmm0,%ymm10
- DB 197,254,127,76,36,32 ; vmovdqu %ymm1,0x20(%rsp)
- DB 197,245,253,193 ; vpaddw %ymm1,%ymm1,%ymm0
- DB 197,101,253,227 ; vpaddw %ymm3,%ymm3,%ymm12
- DB 197,29,101,244 ; vpcmpgtw %ymm4,%ymm12,%ymm14
- DB 197,254,127,188,36,192,0,0,0 ; vmovdqu %ymm7,0xc0(%rsp)
- DB 197,253,101,199 ; vpcmpgtw %ymm7,%ymm0,%ymm0
- DB 197,254,127,180,36,160,0,0,0 ; vmovdqu %ymm6,0xa0(%rsp)
- DB 197,45,249,230 ; vpsubw %ymm6,%ymm10,%ymm12
- DB 197,69,249,249 ; vpsubw %ymm1,%ymm7,%ymm15
- DB 196,65,29,213,231 ; vpmullw %ymm15,%ymm12,%ymm12
- DB 197,45,213,255 ; vpmullw %ymm7,%ymm10,%ymm15
- DB 196,65,29,253,228 ; vpaddw %ymm12,%ymm12,%ymm12
- DB 196,65,5,249,228 ; vpsubw %ymm12,%ymm15,%ymm12
- DB 197,77,213,249 ; vpmullw %ymm1,%ymm6,%ymm15
- DB 196,65,5,253,255 ; vpaddw %ymm15,%ymm15,%ymm15
- DB 196,195,5,76,196,0 ; vpblendvb %ymm0,%ymm12,%ymm15,%ymm0
- DB 197,254,127,132,36,128,0,0,0 ; vmovdqu %ymm0,0x80(%rsp)
- DB 197,126,127,76,36,64 ; vmovdqu %ymm9,0x40(%rsp)
- DB 197,253,111,250 ; vmovdqa %ymm2,%ymm7
- DB 196,193,69,249,193 ; vpsubw %ymm9,%ymm7,%ymm0
- DB 197,253,111,243 ; vmovdqa %ymm3,%ymm6
- DB 197,254,127,36,36 ; vmovdqu %ymm4,(%rsp)
- DB 197,93,249,254 ; vpsubw %ymm6,%ymm4,%ymm15
- DB 196,193,125,213,199 ; vpmullw %ymm15,%ymm0,%ymm0
- DB 197,69,213,252 ; vpmullw %ymm4,%ymm7,%ymm15
- DB 197,253,253,192 ; vpaddw %ymm0,%ymm0,%ymm0
- DB 197,133,249,192 ; vpsubw %ymm0,%ymm15,%ymm0
- DB 197,53,213,254 ; vpmullw %ymm6,%ymm9,%ymm15
- DB 196,65,5,253,255 ; vpaddw %ymm15,%ymm15,%ymm15
- DB 196,227,5,76,192,224 ; vpblendvb %ymm14,%ymm0,%ymm15,%ymm0
- DB 197,254,127,68,36,96 ; vmovdqu %ymm0,0x60(%rsp)
- DB 196,99,125,57,196,1 ; vextracti128 $0x1,%ymm8,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 196,66,61,0,245 ; vpshufb %ymm13,%ymm8,%ymm14
- DB 196,99,125,57,243,1 ; vextracti128 $0x1,%ymm14,%xmm3
- DB 196,226,125,48,219 ; vpmovzxbw %xmm3,%ymm3
- DB 197,125,111,221 ; vmovdqa %ymm5,%ymm11
- DB 196,99,125,57,218,1 ; vextracti128 $0x1,%ymm11,%xmm2
- DB 196,226,125,48,210 ; vpmovzxbw %xmm2,%ymm2
- DB 196,66,37,0,253 ; vpshufb %ymm13,%ymm11,%ymm15
- DB 196,67,125,57,249,1 ; vextracti128 $0x1,%ymm15,%xmm9
- DB 196,66,125,48,201 ; vpmovzxbw %xmm9,%ymm9
- DB 197,181,249,194 ; vpsubw %ymm2,%ymm9,%ymm0
- DB 197,101,249,236 ; vpsubw %ymm4,%ymm3,%ymm13
- DB 196,193,125,213,197 ; vpmullw %ymm13,%ymm0,%ymm0
- DB 197,253,253,192 ; vpaddw %ymm0,%ymm0,%ymm0
- DB 197,53,213,235 ; vpmullw %ymm3,%ymm9,%ymm13
- DB 197,149,249,192 ; vpsubw %ymm0,%ymm13,%ymm0
- DB 197,93,253,236 ; vpaddw %ymm4,%ymm4,%ymm13
- DB 197,21,101,235 ; vpcmpgtw %ymm3,%ymm13,%ymm13
- DB 197,109,213,228 ; vpmullw %ymm4,%ymm2,%ymm12
- DB 196,65,29,253,228 ; vpaddw %ymm12,%ymm12,%ymm12
- DB 196,227,29,76,200,208 ; vpblendvb %ymm13,%ymm0,%ymm12,%ymm1
- DB 196,66,125,48,224 ; vpmovzxbw %xmm8,%ymm12
- DB 196,66,125,48,238 ; vpmovzxbw %xmm14,%ymm13
- DB 196,66,125,48,247 ; vpmovzxbw %xmm15,%ymm14
- DB 196,66,125,48,251 ; vpmovzxbw %xmm11,%ymm15
- DB 196,193,13,249,199 ; vpsubw %ymm15,%ymm14,%ymm0
- DB 196,65,21,249,196 ; vpsubw %ymm12,%ymm13,%ymm8
- DB 196,193,125,213,192 ; vpmullw %ymm8,%ymm0,%ymm0
- DB 197,253,253,192 ; vpaddw %ymm0,%ymm0,%ymm0
- DB 196,65,13,213,197 ; vpmullw %ymm13,%ymm14,%ymm8
- DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
- DB 196,65,29,253,196 ; vpaddw %ymm12,%ymm12,%ymm8
- DB 196,65,61,101,197 ; vpcmpgtw %ymm13,%ymm8,%ymm8
- DB 196,193,5,213,236 ; vpmullw %ymm12,%ymm15,%ymm5
- DB 197,213,253,237 ; vpaddw %ymm5,%ymm5,%ymm5
- DB 196,227,85,76,192,128 ; vpblendvb %ymm8,%ymm0,%ymm5,%ymm0
- DB 196,226,125,121,45,7,220,0,0 ; vpbroadcastw 0xdc07(%rip),%ymm5 # 33f40 <_sk_srcover_rgba_8888_sse2_lowp+0xb0c>
- DB 197,13,239,197 ; vpxor %ymm5,%ymm14,%ymm8
- DB 196,65,61,213,196 ; vpmullw %ymm12,%ymm8,%ymm8
- DB 197,53,239,205 ; vpxor %ymm5,%ymm9,%ymm9
- DB 197,181,213,228 ; vpmullw %ymm4,%ymm9,%ymm4
- DB 197,69,239,205 ; vpxor %ymm5,%ymm7,%ymm9
- DB 197,53,213,206 ; vpmullw %ymm6,%ymm9,%ymm9
- DB 197,45,239,213 ; vpxor %ymm5,%ymm10,%ymm10
- DB 197,45,213,84,36,32 ; vpmullw 0x20(%rsp),%ymm10,%ymm10
- DB 197,213,239,188,36,192,0,0,0 ; vpxor 0xc0(%rsp),%ymm5,%ymm7
- DB 197,213,239,52,36 ; vpxor (%rsp),%ymm5,%ymm6
- DB 197,229,239,221 ; vpxor %ymm5,%ymm3,%ymm3
- DB 197,149,239,237 ; vpxor %ymm5,%ymm13,%ymm5
- DB 196,193,85,213,239 ; vpmullw %ymm15,%ymm5,%ymm5
- DB 196,193,85,253,232 ; vpaddw %ymm8,%ymm5,%ymm5
- DB 197,229,213,210 ; vpmullw %ymm2,%ymm3,%ymm2
- DB 197,237,253,212 ; vpaddw %ymm4,%ymm2,%ymm2
- DB 197,205,213,92,36,64 ; vpmullw 0x40(%rsp),%ymm6,%ymm3
- DB 196,193,101,253,217 ; vpaddw %ymm9,%ymm3,%ymm3
- DB 197,197,213,164,36,160,0,0,0 ; vpmullw 0xa0(%rsp),%ymm7,%ymm4
- DB 196,193,93,253,226 ; vpaddw %ymm10,%ymm4,%ymm4
- DB 196,226,125,121,53,156,219,0,0 ; vpbroadcastw 0xdb9c(%rip),%ymm6 # 33f42 <_sk_srcover_rgba_8888_sse2_lowp+0xb0e>
- DB 197,221,253,230 ; vpaddw %ymm6,%ymm4,%ymm4
- DB 197,221,253,164,36,128,0,0,0 ; vpaddw 0x80(%rsp),%ymm4,%ymm4
- DB 197,229,253,222 ; vpaddw %ymm6,%ymm3,%ymm3
- DB 197,229,253,92,36,96 ; vpaddw 0x60(%rsp),%ymm3,%ymm3
- DB 197,237,253,214 ; vpaddw %ymm6,%ymm2,%ymm2
- DB 197,245,253,202 ; vpaddw %ymm2,%ymm1,%ymm1
- DB 197,213,253,214 ; vpaddw %ymm6,%ymm5,%ymm2
- DB 197,253,253,194 ; vpaddw %ymm2,%ymm0,%ymm0
- DB 196,226,125,121,21,110,219,0,0 ; vpbroadcastw 0xdb6e(%rip),%ymm2 # 33f44 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
- DB 197,253,228,194 ; vpmulhuw %ymm2,%ymm0,%ymm0
- DB 197,245,228,202 ; vpmulhuw %ymm2,%ymm1,%ymm1
- DB 197,229,228,218 ; vpmulhuw %ymm2,%ymm3,%ymm3
- DB 197,229,113,211,7 ; vpsrlw $0x7,%ymm3,%ymm3
- DB 197,221,228,210 ; vpmulhuw %ymm2,%ymm4,%ymm2
- DB 197,237,113,210,7 ; vpsrlw $0x7,%ymm2,%ymm2
- DB 196,227,101,56,226,1 ; vinserti128 $0x1,%xmm2,%ymm3,%ymm4
- DB 196,227,101,70,210,49 ; vperm2i128 $0x31,%ymm2,%ymm3,%ymm2
- DB 197,229,113,208,7 ; vpsrlw $0x7,%ymm0,%ymm3
- DB 197,245,113,209,7 ; vpsrlw $0x7,%ymm1,%ymm1
- DB 197,221,103,194 ; vpackuswb %ymm2,%ymm4,%ymm0
- DB 196,227,101,56,209,1 ; vinserti128 $0x1,%xmm1,%ymm3,%ymm2
- DB 196,227,101,70,201,49 ; vperm2i128 $0x31,%ymm1,%ymm3,%ymm1
- DB 197,237,103,201 ; vpackuswb %ymm1,%ymm2,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,148,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm2
- DB 197,125,127,219 ; vmovdqa %ymm11,%ymm3
- DB 72,129,196,24,1,0,0 ; add $0x118,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_overlay_hsw_8bit
-_sk_overlay_hsw_8bit LABEL PROC
- DB 72,129,236,24,1,0,0 ; sub $0x118,%rsp
- DB 197,253,111,243 ; vmovdqa %ymm3,%ymm6
- DB 197,253,111,233 ; vmovdqa %ymm1,%ymm5
- DB 196,227,125,57,196,1 ; vextracti128 $0x1,%ymm0,%xmm4
- DB 196,226,125,48,204 ; vpmovzxbw %xmm4,%ymm1
- DB 196,226,125,48,216 ; vpmovzxbw %xmm0,%ymm3
- DB 197,125,111,45,7,219,0,0 ; vmovdqa 0xdb07(%rip),%ymm13 # 33f60 <_sk_srcover_rgba_8888_sse2_lowp+0xb2c>
- DB 196,194,125,0,197 ; vpshufb %ymm13,%ymm0,%ymm0
- DB 196,226,125,48,248 ; vpmovzxbw %xmm0,%ymm7
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 196,98,125,48,200 ; vpmovzxbw %xmm0,%ymm9
- DB 197,254,127,148,36,224,0,0,0 ; vmovdqu %ymm2,0xe0(%rsp)
- DB 196,227,125,57,208,1 ; vextracti128 $0x1,%ymm2,%xmm0
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 196,98,125,48,194 ; vpmovzxbw %xmm2,%ymm8
- DB 196,66,109,0,221 ; vpshufb %ymm13,%ymm2,%ymm11
- DB 196,66,125,48,211 ; vpmovzxbw %xmm11,%ymm10
- DB 196,99,125,57,220,1 ; vextracti128 $0x1,%ymm11,%xmm4
- DB 196,98,125,48,220 ; vpmovzxbw %xmm4,%ymm11
- DB 197,253,253,224 ; vpaddw %ymm0,%ymm0,%ymm4
- DB 196,65,61,253,224 ; vpaddw %ymm8,%ymm8,%ymm12
- DB 196,65,29,101,242 ; vpcmpgtw %ymm10,%ymm12,%ymm14
- DB 196,193,93,101,227 ; vpcmpgtw %ymm11,%ymm4,%ymm4
- DB 197,37,249,224 ; vpsubw %ymm0,%ymm11,%ymm12
- DB 197,254,127,132,36,160,0,0,0 ; vmovdqu %ymm0,0xa0(%rsp)
- DB 197,254,127,76,36,32 ; vmovdqu %ymm1,0x20(%rsp)
- DB 197,126,127,140,36,192,0,0,0 ; vmovdqu %ymm9,0xc0(%rsp)
- DB 197,53,249,249 ; vpsubw %ymm1,%ymm9,%ymm15
- DB 196,65,29,213,231 ; vpmullw %ymm15,%ymm12,%ymm12
- DB 196,65,37,213,249 ; vpmullw %ymm9,%ymm11,%ymm15
- DB 196,65,29,253,228 ; vpaddw %ymm12,%ymm12,%ymm12
- DB 196,65,5,249,228 ; vpsubw %ymm12,%ymm15,%ymm12
- DB 197,125,213,249 ; vpmullw %ymm1,%ymm0,%ymm15
- DB 196,65,5,253,255 ; vpaddw %ymm15,%ymm15,%ymm15
- DB 196,195,5,76,196,64 ; vpblendvb %ymm4,%ymm12,%ymm15,%ymm0
- DB 197,254,127,132,36,128,0,0,0 ; vmovdqu %ymm0,0x80(%rsp)
- DB 197,126,127,68,36,64 ; vmovdqu %ymm8,0x40(%rsp)
- DB 196,193,45,249,224 ; vpsubw %ymm8,%ymm10,%ymm4
- DB 197,254,127,60,36 ; vmovdqu %ymm7,(%rsp)
- DB 197,69,249,251 ; vpsubw %ymm3,%ymm7,%ymm15
- DB 196,193,93,213,231 ; vpmullw %ymm15,%ymm4,%ymm4
- DB 197,45,213,255 ; vpmullw %ymm7,%ymm10,%ymm15
- DB 197,221,253,228 ; vpaddw %ymm4,%ymm4,%ymm4
- DB 197,133,249,228 ; vpsubw %ymm4,%ymm15,%ymm4
- DB 197,61,213,251 ; vpmullw %ymm3,%ymm8,%ymm15
- DB 197,125,111,195 ; vmovdqa %ymm3,%ymm8
- DB 196,65,5,253,255 ; vpaddw %ymm15,%ymm15,%ymm15
- DB 196,227,5,76,196,224 ; vpblendvb %ymm14,%ymm4,%ymm15,%ymm0
- DB 197,254,127,68,36,96 ; vmovdqu %ymm0,0x60(%rsp)
- DB 197,253,111,197 ; vmovdqa %ymm5,%ymm0
- DB 196,227,125,57,197,1 ; vextracti128 $0x1,%ymm0,%xmm5
- DB 196,226,125,48,237 ; vpmovzxbw %xmm5,%ymm5
- DB 196,66,125,0,245 ; vpshufb %ymm13,%ymm0,%ymm14
- DB 197,253,111,224 ; vmovdqa %ymm0,%ymm4
- DB 196,99,125,57,243,1 ; vextracti128 $0x1,%ymm14,%xmm3
- DB 196,226,125,48,219 ; vpmovzxbw %xmm3,%ymm3
- DB 197,253,111,254 ; vmovdqa %ymm6,%ymm7
- DB 196,227,125,57,250,1 ; vextracti128 $0x1,%ymm7,%xmm2
- DB 196,226,125,48,210 ; vpmovzxbw %xmm2,%ymm2
- DB 196,66,69,0,253 ; vpshufb %ymm13,%ymm7,%ymm15
- DB 196,67,125,57,253,1 ; vextracti128 $0x1,%ymm15,%xmm13
- DB 196,66,125,48,237 ; vpmovzxbw %xmm13,%ymm13
- DB 197,149,249,194 ; vpsubw %ymm2,%ymm13,%ymm0
- DB 197,101,249,205 ; vpsubw %ymm5,%ymm3,%ymm9
- DB 196,193,125,213,193 ; vpmullw %ymm9,%ymm0,%ymm0
- DB 197,253,253,192 ; vpaddw %ymm0,%ymm0,%ymm0
- DB 197,21,213,203 ; vpmullw %ymm3,%ymm13,%ymm9
- DB 197,181,249,192 ; vpsubw %ymm0,%ymm9,%ymm0
- DB 197,109,253,202 ; vpaddw %ymm2,%ymm2,%ymm9
- DB 196,65,53,101,205 ; vpcmpgtw %ymm13,%ymm9,%ymm9
- DB 197,237,213,245 ; vpmullw %ymm5,%ymm2,%ymm6
- DB 197,205,253,246 ; vpaddw %ymm6,%ymm6,%ymm6
- DB 196,227,77,76,200,144 ; vpblendvb %ymm9,%ymm0,%ymm6,%ymm1
- DB 196,226,125,48,244 ; vpmovzxbw %xmm4,%ymm6
- DB 196,66,125,48,206 ; vpmovzxbw %xmm14,%ymm9
- DB 196,66,125,48,247 ; vpmovzxbw %xmm15,%ymm14
- DB 196,98,125,48,255 ; vpmovzxbw %xmm7,%ymm15
- DB 196,193,13,249,199 ; vpsubw %ymm15,%ymm14,%ymm0
- DB 197,53,249,230 ; vpsubw %ymm6,%ymm9,%ymm12
- DB 196,193,125,213,196 ; vpmullw %ymm12,%ymm0,%ymm0
- DB 197,253,253,192 ; vpaddw %ymm0,%ymm0,%ymm0
- DB 196,65,13,213,225 ; vpmullw %ymm9,%ymm14,%ymm12
- DB 197,157,249,192 ; vpsubw %ymm0,%ymm12,%ymm0
- DB 196,65,5,253,231 ; vpaddw %ymm15,%ymm15,%ymm12
- DB 196,65,29,101,230 ; vpcmpgtw %ymm14,%ymm12,%ymm12
- DB 197,133,213,230 ; vpmullw %ymm6,%ymm15,%ymm4
- DB 197,221,253,228 ; vpaddw %ymm4,%ymm4,%ymm4
- DB 196,227,93,76,192,192 ; vpblendvb %ymm12,%ymm0,%ymm4,%ymm0
- DB 196,226,125,121,37,133,217,0,0 ; vpbroadcastw 0xd985(%rip),%ymm4 # 33f80 <_sk_srcover_rgba_8888_sse2_lowp+0xb4c>
- DB 197,13,239,228 ; vpxor %ymm4,%ymm14,%ymm12
- DB 197,157,213,246 ; vpmullw %ymm6,%ymm12,%ymm6
- DB 197,21,239,228 ; vpxor %ymm4,%ymm13,%ymm12
- DB 197,157,213,237 ; vpmullw %ymm5,%ymm12,%ymm5
- DB 197,45,239,212 ; vpxor %ymm4,%ymm10,%ymm10
- DB 196,65,45,213,208 ; vpmullw %ymm8,%ymm10,%ymm10
- DB 197,37,239,220 ; vpxor %ymm4,%ymm11,%ymm11
- DB 197,37,213,92,36,32 ; vpmullw 0x20(%rsp),%ymm11,%ymm11
- DB 197,93,239,164,36,192,0,0,0 ; vpxor 0xc0(%rsp),%ymm4,%ymm12
- DB 197,93,239,44,36 ; vpxor (%rsp),%ymm4,%ymm13
- DB 197,229,239,220 ; vpxor %ymm4,%ymm3,%ymm3
- DB 197,181,239,228 ; vpxor %ymm4,%ymm9,%ymm4
- DB 196,193,93,213,231 ; vpmullw %ymm15,%ymm4,%ymm4
- DB 197,221,253,230 ; vpaddw %ymm6,%ymm4,%ymm4
- DB 197,229,213,210 ; vpmullw %ymm2,%ymm3,%ymm2
- DB 197,237,253,213 ; vpaddw %ymm5,%ymm2,%ymm2
- DB 197,149,213,92,36,64 ; vpmullw 0x40(%rsp),%ymm13,%ymm3
- DB 196,193,101,253,218 ; vpaddw %ymm10,%ymm3,%ymm3
- DB 197,157,213,172,36,160,0,0,0 ; vpmullw 0xa0(%rsp),%ymm12,%ymm5
- DB 196,193,85,253,235 ; vpaddw %ymm11,%ymm5,%ymm5
- DB 196,226,125,121,53,27,217,0,0 ; vpbroadcastw 0xd91b(%rip),%ymm6 # 33f82 <_sk_srcover_rgba_8888_sse2_lowp+0xb4e>
- DB 197,213,253,238 ; vpaddw %ymm6,%ymm5,%ymm5
- DB 197,213,253,172,36,128,0,0,0 ; vpaddw 0x80(%rsp),%ymm5,%ymm5
- DB 197,229,253,222 ; vpaddw %ymm6,%ymm3,%ymm3
- DB 197,229,253,92,36,96 ; vpaddw 0x60(%rsp),%ymm3,%ymm3
- DB 197,237,253,214 ; vpaddw %ymm6,%ymm2,%ymm2
- DB 197,245,253,202 ; vpaddw %ymm2,%ymm1,%ymm1
- DB 197,221,253,214 ; vpaddw %ymm6,%ymm4,%ymm2
- DB 197,253,253,194 ; vpaddw %ymm2,%ymm0,%ymm0
- DB 196,226,125,121,21,237,216,0,0 ; vpbroadcastw 0xd8ed(%rip),%ymm2 # 33f84 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
- DB 197,253,228,194 ; vpmulhuw %ymm2,%ymm0,%ymm0
- DB 197,245,228,202 ; vpmulhuw %ymm2,%ymm1,%ymm1
- DB 197,229,228,218 ; vpmulhuw %ymm2,%ymm3,%ymm3
- DB 197,229,113,211,7 ; vpsrlw $0x7,%ymm3,%ymm3
- DB 197,213,228,210 ; vpmulhuw %ymm2,%ymm5,%ymm2
- DB 197,237,113,210,7 ; vpsrlw $0x7,%ymm2,%ymm2
- DB 196,227,101,56,226,1 ; vinserti128 $0x1,%xmm2,%ymm3,%ymm4
- DB 196,227,101,70,210,49 ; vperm2i128 $0x31,%ymm2,%ymm3,%ymm2
- DB 197,229,113,208,7 ; vpsrlw $0x7,%ymm0,%ymm3
- DB 197,245,113,209,7 ; vpsrlw $0x7,%ymm1,%ymm1
- DB 197,221,103,194 ; vpackuswb %ymm2,%ymm4,%ymm0
- DB 196,227,101,56,209,1 ; vinserti128 $0x1,%xmm1,%ymm3,%ymm2
- DB 196,227,101,70,201,49 ; vperm2i128 $0x31,%ymm1,%ymm3,%ymm1
- DB 197,237,103,201 ; vpackuswb %ymm1,%ymm2,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,148,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm2
- DB 197,253,111,223 ; vmovdqa %ymm7,%ymm3
- DB 72,129,196,24,1,0,0 ; add $0x118,%rsp
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
-
-PUBLIC _sk_start_pipeline_sse41_8bit
-_sk_start_pipeline_sse41_8bit LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 86 ; push %rsi
- DB 87 ; push %rdi
- DB 83 ; push %rbx
- DB 72,129,236,200,0,0,0 ; sub $0xc8,%rsp
- DB 68,15,41,125,176 ; movaps %xmm15,-0x50(%rbp)
- DB 68,15,41,117,160 ; movaps %xmm14,-0x60(%rbp)
- DB 68,15,41,109,144 ; movaps %xmm13,-0x70(%rbp)
- DB 68,15,41,101,128 ; movaps %xmm12,-0x80(%rbp)
- DB 68,15,41,157,112,255,255,255 ; movaps %xmm11,-0x90(%rbp)
- DB 68,15,41,149,96,255,255,255 ; movaps %xmm10,-0xa0(%rbp)
- DB 68,15,41,141,80,255,255,255 ; movaps %xmm9,-0xb0(%rbp)
- DB 68,15,41,133,64,255,255,255 ; movaps %xmm8,-0xc0(%rbp)
- DB 15,41,189,48,255,255,255 ; movaps %xmm7,-0xd0(%rbp)
- DB 15,41,181,32,255,255,255 ; movaps %xmm6,-0xe0(%rbp)
- DB 77,137,199 ; mov %r8,%r15
- DB 72,137,211 ; mov %rdx,%rbx
- DB 72,137,141,24,255,255,255 ; mov %rcx,-0xe8(%rbp)
- DB 72,139,117,48 ; mov 0x30(%rbp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 73,137,197 ; mov %rax,%r13
- DB 73,137,246 ; mov %rsi,%r14
- DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
- DB 76,57,203 ; cmp %r9,%rbx
- DB 115,101 ; jae 267d6 <_sk_start_pipeline_sse41_8bit+0xe2>
- DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
- DB 72,141,64,8 ; lea 0x8(%rax),%rax
- DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
- DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 119,38 ; ja 267b9 <_sk_start_pipeline_sse41_8bit+0xc5>
- DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
- DB 49,255 ; xor %edi,%edi
- DB 76,137,246 ; mov %r14,%rsi
- DB 76,137,226 ; mov %r12,%rdx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 73,141,84,36,8 ; lea 0x8(%r12),%rdx
- DB 73,131,196,16 ; add $0x10,%r12
- DB 77,57,252 ; cmp %r15,%r12
- DB 73,137,212 ; mov %rdx,%r12
- DB 118,225 ; jbe 2679a <_sk_start_pipeline_sse41_8bit+0xa6>
- DB 76,137,255 ; mov %r15,%rdi
- DB 72,41,215 ; sub %rdx,%rdi
- DB 116,9 ; je 267ca <_sk_start_pipeline_sse41_8bit+0xd6>
- DB 76,137,246 ; mov %r14,%rsi
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 72,255,195 ; inc %rbx
- DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 117,173 ; jne 26783 <_sk_start_pipeline_sse41_8bit+0x8f>
- DB 15,40,181,32,255,255,255 ; movaps -0xe0(%rbp),%xmm6
- DB 15,40,189,48,255,255,255 ; movaps -0xd0(%rbp),%xmm7
- DB 68,15,40,133,64,255,255,255 ; movaps -0xc0(%rbp),%xmm8
- DB 68,15,40,141,80,255,255,255 ; movaps -0xb0(%rbp),%xmm9
- DB 68,15,40,149,96,255,255,255 ; movaps -0xa0(%rbp),%xmm10
- DB 68,15,40,157,112,255,255,255 ; movaps -0x90(%rbp),%xmm11
- DB 68,15,40,101,128 ; movaps -0x80(%rbp),%xmm12
- DB 68,15,40,109,144 ; movaps -0x70(%rbp),%xmm13
- DB 68,15,40,117,160 ; movaps -0x60(%rbp),%xmm14
- DB 68,15,40,125,176 ; movaps -0x50(%rbp),%xmm15
- DB 72,129,196,200,0,0,0 ; add $0xc8,%rsp
- DB 91 ; pop %rbx
- DB 95 ; pop %rdi
- DB 94 ; pop %rsi
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 195 ; retq
-
-PUBLIC _sk_just_return_sse41_8bit
-_sk_just_return_sse41_8bit LABEL PROC
- DB 195 ; retq
-
-PUBLIC _sk_uniform_color_sse41_8bit
-_sk_uniform_color_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,110,64,16 ; movd 0x10(%rax),%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_set_rgb_sse41_8bit
-_sk_set_rgb_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,37,137,216,0,0 ; movss 0xd889(%rip),%xmm4 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 243,15,16,40 ; movss (%rax),%xmm5
- DB 243,15,89,236 ; mulss %xmm4,%xmm5
- DB 243,76,15,44,197 ; cvttss2si %xmm5,%r8
- DB 243,15,16,104,4 ; movss 0x4(%rax),%xmm5
- DB 243,15,89,236 ; mulss %xmm4,%xmm5
- DB 243,76,15,44,205 ; cvttss2si %xmm5,%r9
- DB 65,193,225,8 ; shl $0x8,%r9d
- DB 69,9,193 ; or %r8d,%r9d
- DB 243,15,89,96,8 ; mulss 0x8(%rax),%xmm4
- DB 243,72,15,44,196 ; cvttss2si %xmm4,%rax
- DB 193,224,16 ; shl $0x10,%eax
- DB 68,9,200 ; or %r9d,%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 102,15,111,45,50,225,0,0 ; movdqa 0xe132(%rip),%xmm5 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 102,15,219,205 ; pand %xmm5,%xmm1
- DB 102,15,219,197 ; pand %xmm5,%xmm0
- DB 102,15,235,196 ; por %xmm4,%xmm0
- DB 102,15,235,204 ; por %xmm4,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_sse41_8bit
-_sk_premul_sse41_8bit LABEL PROC
- DB 102,68,15,111,5,37,225,0,0 ; movdqa 0xe125(%rip),%xmm8 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,68,15,56,48,208 ; pmovzxbw %xmm0,%xmm10
- DB 102,65,15,56,0,192 ; pshufb %xmm8,%xmm0
- DB 102,15,112,249,78 ; pshufd $0x4e,%xmm1,%xmm7
- DB 102,68,15,56,48,201 ; pmovzxbw %xmm1,%xmm9
- DB 102,65,15,56,0,200 ; pshufb %xmm8,%xmm1
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,68,15,111,5,224,224,0,0 ; movdqa 0xe0e0(%rip),%xmm8 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 102,65,15,235,200 ; por %xmm8,%xmm1
- DB 102,65,15,235,192 ; por %xmm8,%xmm0
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,112,241,78 ; pshufd $0x4e,%xmm1,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,15,56,48,201 ; pmovzxbw %xmm1,%xmm1
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,15,213,247 ; pmullw %xmm7,%xmm6
- DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
- DB 102,15,213,229 ; pmullw %xmm5,%xmm4
- DB 102,15,253,229 ; paddw %xmm5,%xmm4
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,15,253,247 ; paddw %xmm7,%xmm6
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,206 ; packuswb %xmm6,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,196 ; packuswb %xmm4,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_swap_rb_sse41_8bit
-_sk_swap_rb_sse41_8bit LABEL PROC
- DB 102,15,111,37,140,224,0,0 ; movdqa 0xe08c(%rip),%xmm4 # 349e0 <_sk_srcover_rgba_8888_sse2_lowp+0x15ac>
- DB 102,15,56,0,196 ; pshufb %xmm4,%xmm0
- DB 102,15,56,0,204 ; pshufb %xmm4,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_invert_sse41_8bit
-_sk_invert_sse41_8bit LABEL PROC
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,239,196 ; pxor %xmm4,%xmm0
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_8888_sse41_8bit
-_sk_load_8888_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 2699f <_sk_load_8888_sse41_8bit+0x2d>
- DB 243,67,15,111,4,152 ; movdqu (%r8,%r11,4),%xmm0
- DB 243,67,15,111,76,152,16 ; movdqu 0x10(%r8,%r11,4),%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,228 ; ja 2699b <_sk_load_8888_sse41_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,82,0,0,0 ; lea 0x52(%rip),%r10 # 26a14 <_sk_load_8888_sse41_8bit+0xa2>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,110,4,152 ; movd (%r8,%r11,4),%xmm0
- DB 235,200 ; jmp 2699b <_sk_load_8888_sse41_8bit+0x29>
- DB 102,67,15,110,68,152,8 ; movd 0x8(%r8,%r11,4),%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 243,67,15,126,36,152 ; movq (%r8,%r11,4),%xmm4
- DB 102,15,58,14,196,15 ; pblendw $0xf,%xmm4,%xmm0
- DB 235,174 ; jmp 2699b <_sk_load_8888_sse41_8bit+0x29>
- DB 102,67,15,110,68,152,24 ; movd 0x18(%r8,%r11,4),%xmm0
- DB 102,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm1
- DB 102,67,15,58,34,76,152,20,1 ; pinsrd $0x1,0x14(%r8,%r11,4),%xmm1
- DB 102,67,15,58,34,76,152,16,0 ; pinsrd $0x0,0x10(%r8,%r11,4),%xmm1
- DB 243,67,15,111,4,152 ; movdqu (%r8,%r11,4),%xmm0
- DB 235,136 ; jmp 2699b <_sk_load_8888_sse41_8bit+0x29>
- DB 144 ; nop
- DB 183,255 ; mov $0xff,%bh
- DB 255 ; (bad)
- DB 255,203 ; dec %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,247 ; mov $0xf7ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 238 ; out %al,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 217,255 ; fcos
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_8888_dst_sse41_8bit
-_sk_load_8888_dst_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 26a5d <_sk_load_8888_dst_sse41_8bit+0x2d>
- DB 243,67,15,111,20,152 ; movdqu (%r8,%r11,4),%xmm2
- DB 243,67,15,111,92,152,16 ; movdqu 0x10(%r8,%r11,4),%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,228 ; ja 26a59 <_sk_load_8888_dst_sse41_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,84,0,0,0 ; lea 0x54(%rip),%r10 # 26ad4 <_sk_load_8888_dst_sse41_8bit+0xa4>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,110,20,152 ; movd (%r8,%r11,4),%xmm2
- DB 235,200 ; jmp 26a59 <_sk_load_8888_dst_sse41_8bit+0x29>
- DB 102,67,15,110,84,152,8 ; movd 0x8(%r8,%r11,4),%xmm2
- DB 102,15,112,210,69 ; pshufd $0x45,%xmm2,%xmm2
- DB 243,67,15,126,36,152 ; movq (%r8,%r11,4),%xmm4
- DB 102,15,58,14,212,15 ; pblendw $0xf,%xmm4,%xmm2
- DB 235,174 ; jmp 26a59 <_sk_load_8888_dst_sse41_8bit+0x29>
- DB 102,67,15,110,84,152,24 ; movd 0x18(%r8,%r11,4),%xmm2
- DB 102,15,112,218,69 ; pshufd $0x45,%xmm2,%xmm3
- DB 102,67,15,58,34,92,152,20,1 ; pinsrd $0x1,0x14(%r8,%r11,4),%xmm3
- DB 102,67,15,58,34,92,152,16,0 ; pinsrd $0x0,0x10(%r8,%r11,4),%xmm3
- DB 243,67,15,111,20,152 ; movdqu (%r8,%r11,4),%xmm2
- DB 235,136 ; jmp 26a59 <_sk_load_8888_dst_sse41_8bit+0x29>
- DB 15,31,0 ; nopl (%rax)
- DB 181,255 ; mov $0xff,%ch
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,245 ; mov $0xf5ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 236 ; in (%dx),%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,227 ; jmpq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,215 ; callq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_8888_sse41_8bit
-_sk_store_8888_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 26b1d <_sk_store_8888_sse41_8bit+0x2d>
- DB 243,67,15,127,4,152 ; movdqu %xmm0,(%r8,%r11,4)
- DB 243,67,15,127,76,152,16 ; movdqu %xmm1,0x10(%r8,%r11,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,236 ; ja 26b19 <_sk_store_8888_sse41_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,68,0,0,0 ; lea 0x44(%rip),%r10 # 26b7c <_sk_store_8888_sse41_8bit+0x8c>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,126,4,152 ; movd %xmm0,(%r8,%r11,4)
- DB 235,208 ; jmp 26b19 <_sk_store_8888_sse41_8bit+0x29>
- DB 102,67,15,58,22,68,152,8,2 ; pextrd $0x2,%xmm0,0x8(%r8,%r11,4)
- DB 102,67,15,214,4,152 ; movq %xmm0,(%r8,%r11,4)
- DB 235,191 ; jmp 26b19 <_sk_store_8888_sse41_8bit+0x29>
- DB 102,67,15,58,22,76,152,24,2 ; pextrd $0x2,%xmm1,0x18(%r8,%r11,4)
- DB 102,67,15,58,22,76,152,20,1 ; pextrd $0x1,%xmm1,0x14(%r8,%r11,4)
- DB 102,67,15,126,76,152,16 ; movd %xmm1,0x10(%r8,%r11,4)
- DB 243,67,15,127,4,152 ; movdqu %xmm0,(%r8,%r11,4)
- DB 235,158 ; jmp 26b19 <_sk_store_8888_sse41_8bit+0x29>
- DB 144 ; nop
- DB 197,255,255 ; (bad)
- DB 255,214 ; callq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,205 ; dec %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,247 ; push %rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,240 ; push %rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 222,255 ; fdivrp %st,%st(7)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_sse41_8bit
-_sk_load_bgra_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,35 ; jne 26bd7 <_sk_load_bgra_sse41_8bit+0x3f>
- DB 243,67,15,111,4,152 ; movdqu (%r8,%r11,4),%xmm0
- DB 243,67,15,111,76,152,16 ; movdqu 0x10(%r8,%r11,4),%xmm1
- DB 102,15,111,37,23,222,0,0 ; movdqa 0xde17(%rip),%xmm4 # 349e0 <_sk_srcover_rgba_8888_sse2_lowp+0x15ac>
- DB 102,15,56,0,196 ; pshufb %xmm4,%xmm0
- DB 102,15,56,0,204 ; pshufb %xmm4,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,210 ; ja 26bc1 <_sk_load_bgra_sse41_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,86,0,0,0 ; lea 0x56(%rip),%r10 # 26c50 <_sk_load_bgra_sse41_8bit+0xb8>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,110,4,152 ; movd (%r8,%r11,4),%xmm0
- DB 235,182 ; jmp 26bc1 <_sk_load_bgra_sse41_8bit+0x29>
- DB 102,67,15,110,68,152,8 ; movd 0x8(%r8,%r11,4),%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 243,67,15,126,36,152 ; movq (%r8,%r11,4),%xmm4
- DB 102,15,58,14,196,15 ; pblendw $0xf,%xmm4,%xmm0
- DB 235,156 ; jmp 26bc1 <_sk_load_bgra_sse41_8bit+0x29>
- DB 102,67,15,110,68,152,24 ; movd 0x18(%r8,%r11,4),%xmm0
- DB 102,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm1
- DB 102,67,15,58,34,76,152,20,1 ; pinsrd $0x1,0x14(%r8,%r11,4),%xmm1
- DB 102,67,15,58,34,76,152,16,0 ; pinsrd $0x0,0x10(%r8,%r11,4),%xmm1
- DB 243,67,15,111,4,152 ; movdqu (%r8,%r11,4),%xmm0
- DB 233,115,255,255,255 ; jmpq 26bc1 <_sk_load_bgra_sse41_8bit+0x29>
- DB 102,144 ; xchg %ax,%ax
- DB 179,255 ; mov $0xff,%bl
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 187,255,255,255,243 ; mov $0xf3ffffff,%ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 234 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,225 ; jmpq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_dst_sse41_8bit
-_sk_load_bgra_dst_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,35 ; jne 26cab <_sk_load_bgra_dst_sse41_8bit+0x3f>
- DB 243,67,15,111,20,152 ; movdqu (%r8,%r11,4),%xmm2
- DB 243,67,15,111,92,152,16 ; movdqu 0x10(%r8,%r11,4),%xmm3
- DB 102,15,111,37,67,221,0,0 ; movdqa 0xdd43(%rip),%xmm4 # 349e0 <_sk_srcover_rgba_8888_sse2_lowp+0x15ac>
- DB 102,15,56,0,212 ; pshufb %xmm4,%xmm2
- DB 102,15,56,0,220 ; pshufb %xmm4,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,210 ; ja 26c95 <_sk_load_bgra_dst_sse41_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,86,0,0,0 ; lea 0x56(%rip),%r10 # 26d24 <_sk_load_bgra_dst_sse41_8bit+0xb8>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,110,20,152 ; movd (%r8,%r11,4),%xmm2
- DB 235,182 ; jmp 26c95 <_sk_load_bgra_dst_sse41_8bit+0x29>
- DB 102,67,15,110,84,152,8 ; movd 0x8(%r8,%r11,4),%xmm2
- DB 102,15,112,210,69 ; pshufd $0x45,%xmm2,%xmm2
- DB 243,67,15,126,36,152 ; movq (%r8,%r11,4),%xmm4
- DB 102,15,58,14,212,15 ; pblendw $0xf,%xmm4,%xmm2
- DB 235,156 ; jmp 26c95 <_sk_load_bgra_dst_sse41_8bit+0x29>
- DB 102,67,15,110,84,152,24 ; movd 0x18(%r8,%r11,4),%xmm2
- DB 102,15,112,218,69 ; pshufd $0x45,%xmm2,%xmm3
- DB 102,67,15,58,34,92,152,20,1 ; pinsrd $0x1,0x14(%r8,%r11,4),%xmm3
- DB 102,67,15,58,34,92,152,16,0 ; pinsrd $0x0,0x10(%r8,%r11,4),%xmm3
- DB 243,67,15,111,20,152 ; movdqu (%r8,%r11,4),%xmm2
- DB 233,115,255,255,255 ; jmpq 26c95 <_sk_load_bgra_dst_sse41_8bit+0x29>
- DB 102,144 ; xchg %ax,%ax
- DB 179,255 ; mov $0xff,%bl
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 187,255,255,255,243 ; mov $0xf3ffffff,%ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 234 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,225 ; jmpq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_bgra_sse41_8bit
-_sk_store_bgra_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 102,15,111,53,129,220,0,0 ; movdqa 0xdc81(%rip),%xmm6 # 349e0 <_sk_srcover_rgba_8888_sse2_lowp+0x15ac>
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,56,0,238 ; pshufb %xmm6,%xmm5
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,56,0,230 ; pshufb %xmm6,%xmm4
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 26d87 <_sk_store_bgra_sse41_8bit+0x47>
- DB 243,67,15,127,36,152 ; movdqu %xmm4,(%r8,%r11,4)
- DB 243,67,15,127,108,152,16 ; movdqu %xmm5,0x10(%r8,%r11,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,236 ; ja 26d83 <_sk_store_bgra_sse41_8bit+0x43>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,70,0,0,0 ; lea 0x46(%rip),%r10 # 26de8 <_sk_store_bgra_sse41_8bit+0xa8>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,126,36,152 ; movd %xmm4,(%r8,%r11,4)
- DB 235,208 ; jmp 26d83 <_sk_store_bgra_sse41_8bit+0x43>
- DB 102,67,15,58,22,100,152,8,2 ; pextrd $0x2,%xmm4,0x8(%r8,%r11,4)
- DB 102,67,15,214,36,152 ; movq %xmm4,(%r8,%r11,4)
- DB 235,191 ; jmp 26d83 <_sk_store_bgra_sse41_8bit+0x43>
- DB 102,67,15,58,22,108,152,24,2 ; pextrd $0x2,%xmm5,0x18(%r8,%r11,4)
- DB 102,67,15,58,22,108,152,20,1 ; pextrd $0x1,%xmm5,0x14(%r8,%r11,4)
- DB 102,67,15,126,108,152,16 ; movd %xmm5,0x10(%r8,%r11,4)
- DB 243,67,15,127,36,152 ; movdqu %xmm4,(%r8,%r11,4)
- DB 235,158 ; jmp 26d83 <_sk_store_bgra_sse41_8bit+0x43>
- DB 15,31,0 ; nopl (%rax)
- DB 195 ; retq
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,212 ; callq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,203 ; dec %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,245 ; push %rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 238 ; out %al,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_565_sse41_8bit
-_sk_store_565_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 102,15,111,37,206,219,0,0 ; movdqa 0xdbce(%rip),%xmm4 # 349f0 <_sk_srcover_rgba_8888_sse2_lowp+0x15bc>
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 102,15,219,224 ; pand %xmm0,%xmm4
- DB 102,15,114,244,8 ; pslld $0x8,%xmm4
- DB 102,15,114,245,8 ; pslld $0x8,%xmm5
- DB 102,15,111,53,192,219,0,0 ; movdqa 0xdbc0(%rip),%xmm6 # 34a00 <_sk_srcover_rgba_8888_sse2_lowp+0x15cc>
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 102,15,219,240 ; pand %xmm0,%xmm6
- DB 102,15,114,214,5 ; psrld $0x5,%xmm6
- DB 102,15,235,244 ; por %xmm4,%xmm6
- DB 102,15,114,215,5 ; psrld $0x5,%xmm7
- DB 102,15,235,253 ; por %xmm5,%xmm7
- DB 102,15,111,45,170,219,0,0 ; movdqa 0xdbaa(%rip),%xmm5 # 34a10 <_sk_srcover_rgba_8888_sse2_lowp+0x15dc>
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,219,229 ; pand %xmm5,%xmm4
- DB 102,15,219,233 ; pand %xmm1,%xmm5
- DB 102,15,114,213,19 ; psrld $0x13,%xmm5
- DB 102,15,235,239 ; por %xmm7,%xmm5
- DB 102,15,114,212,19 ; psrld $0x13,%xmm4
- DB 102,15,235,230 ; por %xmm6,%xmm4
- DB 102,15,111,53,148,219,0,0 ; movdqa 0xdb94(%rip),%xmm6 # 34a20 <_sk_srcover_rgba_8888_sse2_lowp+0x15ec>
- DB 102,15,56,0,238 ; pshufb %xmm6,%xmm5
- DB 102,15,56,0,230 ; pshufb %xmm6,%xmm4
- DB 102,15,108,229 ; punpcklqdq %xmm5,%xmm4
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 26ea9 <_sk_store_565_sse41_8bit+0xa5>
- DB 243,67,15,127,36,88 ; movdqu %xmm4,(%r8,%r11,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,236 ; ja 26ea5 <_sk_store_565_sse41_8bit+0xa1>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,72,0,0,0 ; lea 0x48(%rip),%r10 # 26f0c <_sk_store_565_sse41_8bit+0x108>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,58,21,36,88,0 ; pextrw $0x0,%xmm4,(%r8,%r11,2)
- DB 235,206 ; jmp 26ea5 <_sk_store_565_sse41_8bit+0xa1>
- DB 102,67,15,58,21,100,88,4,2 ; pextrw $0x2,%xmm4,0x4(%r8,%r11,2)
- DB 102,67,15,126,36,88 ; movd %xmm4,(%r8,%r11,2)
- DB 235,189 ; jmp 26ea5 <_sk_store_565_sse41_8bit+0xa1>
- DB 102,67,15,58,21,100,88,12,6 ; pextrw $0x6,%xmm4,0xc(%r8,%r11,2)
- DB 102,67,15,58,21,100,88,10,5 ; pextrw $0x5,%xmm4,0xa(%r8,%r11,2)
- DB 102,67,15,58,21,100,88,8,4 ; pextrw $0x4,%xmm4,0x8(%r8,%r11,2)
- DB 102,67,15,214,36,88 ; movq %xmm4,(%r8,%r11,2)
- DB 235,154 ; jmp 26ea5 <_sk_store_565_sse41_8bit+0xa1>
- DB 144 ; nop
- DB 193,255,255 ; sar $0xff,%edi
- DB 255,212 ; callq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,203 ; dec %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,247 ; push %rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 238 ; out %al,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_565_dst_sse41_8bit
-_sk_load_565_dst_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,218,0,0,0 ; jne 27021 <_sk_load_565_dst_sse41_8bit+0xf9>
- DB 243,67,15,111,20,88 ; movdqu (%r8,%r11,2),%xmm2
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,56,51,219 ; pmovzxwd %xmm3,%xmm3
- DB 102,15,56,51,210 ; pmovzxwd %xmm2,%xmm2
- DB 102,15,111,53,124,213,0,0 ; movdqa 0xd57c(%rip),%xmm6 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 102,15,219,243 ; pand %xmm3,%xmm6
- DB 102,15,114,214,8 ; psrld $0x8,%xmm6
- DB 102,15,114,215,8 ; psrld $0x8,%xmm7
- DB 102,15,111,45,158,213,0,0 ; movdqa 0xd59e(%rip),%xmm5 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,219,229 ; pand %xmm5,%xmm4
- DB 102,15,219,235 ; pand %xmm3,%xmm5
- DB 102,15,114,245,19 ; pslld $0x13,%xmm5
- DB 102,15,235,238 ; por %xmm6,%xmm5
- DB 102,15,114,244,19 ; pslld $0x13,%xmm4
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 102,15,111,53,88,213,0,0 ; movdqa 0xd558(%rip),%xmm6 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 102,15,114,247,5 ; pslld $0x5,%xmm7
- DB 102,68,15,111,5,130,218,0,0 ; movdqa 0xda82(%rip),%xmm8 # 34a40 <_sk_srcover_rgba_8888_sse2_lowp+0x160c>
- DB 102,65,15,219,216 ; pand %xmm8,%xmm3
- DB 102,15,114,211,1 ; psrld $0x1,%xmm3
- DB 102,15,235,223 ; por %xmm7,%xmm3
- DB 102,15,235,221 ; por %xmm5,%xmm3
- DB 102,15,114,213,5 ; psrld $0x5,%xmm5
- DB 102,15,219,242 ; pand %xmm2,%xmm6
- DB 102,15,114,246,5 ; pslld $0x5,%xmm6
- DB 102,65,15,219,208 ; pand %xmm8,%xmm2
- DB 102,15,114,210,1 ; psrld $0x1,%xmm2
- DB 102,15,235,214 ; por %xmm6,%xmm2
- DB 102,15,235,212 ; por %xmm4,%xmm2
- DB 102,15,114,212,5 ; psrld $0x5,%xmm4
- DB 102,15,111,53,51,218,0,0 ; movdqa 0xda33(%rip),%xmm6 # 34a30 <_sk_srcover_rgba_8888_sse2_lowp+0x15fc>
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 102,15,111,53,179,217,0,0 ; movdqa 0xd9b3(%rip),%xmm6 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 102,15,235,214 ; por %xmm6,%xmm2
- DB 102,15,235,212 ; por %xmm4,%xmm2
- DB 102,15,235,222 ; por %xmm6,%xmm3
- DB 102,15,235,221 ; por %xmm5,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 15,135,20,255,255,255 ; ja 26f4d <_sk_load_565_dst_sse41_8bit+0x25>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,100,0,0,0 ; lea 0x64(%rip),%r10 # 270a8 <_sk_load_565_dst_sse41_8bit+0x180>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,183,4,88 ; movzwl (%r8,%r11,2),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 233,242,254,255,255 ; jmpq 26f4d <_sk_load_565_dst_sse41_8bit+0x25>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,67,15,196,84,88,4,2 ; pinsrw $0x2,0x4(%r8,%r11,2),%xmm2
- DB 102,67,15,110,28,88 ; movd (%r8,%r11,2),%xmm3
- DB 102,15,58,14,211,3 ; pblendw $0x3,%xmm3,%xmm2
- DB 233,213,254,255,255 ; jmpq 26f4d <_sk_load_565_dst_sse41_8bit+0x25>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,67,15,196,84,88,12,6 ; pinsrw $0x6,0xc(%r8,%r11,2),%xmm2
- DB 102,67,15,196,84,88,10,5 ; pinsrw $0x5,0xa(%r8,%r11,2),%xmm2
- DB 102,67,15,196,84,88,8,4 ; pinsrw $0x4,0x8(%r8,%r11,2),%xmm2
- DB 243,67,15,126,28,88 ; movq (%r8,%r11,2),%xmm3
- DB 102,15,58,14,211,15 ; pblendw $0xf,%xmm3,%xmm2
- DB 233,168,254,255,255 ; jmpq 26f4d <_sk_load_565_dst_sse41_8bit+0x25>
- DB 15,31,0 ; nopl (%rax)
- DB 165 ; movsl %ds:(%rsi),%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,179 ; mov $0xb3ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 236 ; in (%dx),%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,228 ; jmpq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_sse41_8bit
-_sk_load_a8_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,38 ; jne 27102 <_sk_load_a8_sse41_8bit+0x3e>
- DB 102,67,15,56,48,12,24 ; pmovzxbw (%r8,%r11,1),%xmm1
- DB 102,15,219,13,117,209,0,0 ; pand 0xd175(%rip),%xmm1 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,56,51,193 ; pmovzxwd %xmm1,%xmm0
- DB 102,15,56,0,13,87,217,0,0 ; pshufb 0xd957(%rip),%xmm1 # 34a50 <_sk_srcover_rgba_8888_sse2_lowp+0x161c>
- DB 102,15,114,240,24 ; pslld $0x18,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,205 ; ja 270e3 <_sk_load_a8_sse41_8bit+0x1f>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,119,0,0,0 ; lea 0x77(%rip),%r10 # 27198 <_sk_load_a8_sse41_8bit+0xd4>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 235,174 ; jmp 270e3 <_sk_load_a8_sse41_8bit+0x1f>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,196,200,2 ; pinsrw $0x2,%eax,%xmm1
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,58,14,200,3 ; pblendw $0x3,%xmm0,%xmm1
- DB 235,137 ; jmp 270e3 <_sk_load_a8_sse41_8bit+0x1f>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,196,200,6 ; pinsrw $0x6,%eax,%xmm1
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,200,5 ; pinsrw $0x5,%eax,%xmm1
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,200,4 ; pinsrw $0x4,%eax,%xmm1
- DB 102,67,15,110,4,24 ; movd (%r8,%r11,1),%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,58,14,200,15 ; pblendw $0xf,%xmm0,%xmm1
- DB 233,78,255,255,255 ; jmpq 270e3 <_sk_load_a8_sse41_8bit+0x1f>
- DB 15,31,0 ; nopl (%rax)
- DB 146 ; xchg %eax,%edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,172,255,255,255,157,255 ; ljmp *-0x620001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_dst_sse41_8bit
-_sk_load_a8_dst_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,38 ; jne 271f2 <_sk_load_a8_dst_sse41_8bit+0x3e>
- DB 102,67,15,56,48,28,24 ; pmovzxbw (%r8,%r11,1),%xmm3
- DB 102,15,219,29,133,208,0,0 ; pand 0xd085(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,56,51,211 ; pmovzxwd %xmm3,%xmm2
- DB 102,15,56,0,29,103,216,0,0 ; pshufb 0xd867(%rip),%xmm3 # 34a50 <_sk_srcover_rgba_8888_sse2_lowp+0x161c>
- DB 102,15,114,242,24 ; pslld $0x18,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,205 ; ja 271d3 <_sk_load_a8_dst_sse41_8bit+0x1f>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,119,0,0,0 ; lea 0x77(%rip),%r10 # 27288 <_sk_load_a8_dst_sse41_8bit+0xd4>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 235,174 ; jmp 271d3 <_sk_load_a8_dst_sse41_8bit+0x1f>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,216,2 ; pinsrw $0x2,%eax,%xmm3
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 102,15,56,48,210 ; pmovzxbw %xmm2,%xmm2
- DB 102,15,58,14,218,3 ; pblendw $0x3,%xmm2,%xmm3
- DB 235,137 ; jmp 271d3 <_sk_load_a8_dst_sse41_8bit+0x1f>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,216,6 ; pinsrw $0x6,%eax,%xmm3
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,216,5 ; pinsrw $0x5,%eax,%xmm3
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,216,4 ; pinsrw $0x4,%eax,%xmm3
- DB 102,67,15,110,20,24 ; movd (%r8,%r11,1),%xmm2
- DB 102,15,56,48,210 ; pmovzxbw %xmm2,%xmm2
- DB 102,15,58,14,218,15 ; pblendw $0xf,%xmm2,%xmm3
- DB 233,78,255,255,255 ; jmpq 271d3 <_sk_load_a8_dst_sse41_8bit+0x1f>
- DB 15,31,0 ; nopl (%rax)
- DB 146 ; xchg %eax,%edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,172,255,255,255,157,255 ; ljmp *-0x620001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_a8_sse41_8bit
-_sk_store_a8_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 102,15,111,45,161,215,0,0 ; movdqa 0xd7a1(%rip),%xmm5 # 34a60 <_sk_srcover_rgba_8888_sse2_lowp+0x162c>
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,56,0,245 ; pshufb %xmm5,%xmm6
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,56,0,229 ; pshufb %xmm5,%xmm4
- DB 102,15,108,230 ; punpcklqdq %xmm6,%xmm4
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,19 ; jne 272ed <_sk_store_a8_sse41_8bit+0x49>
- DB 102,15,56,0,37,205,214,0,0 ; pshufb 0xd6cd(%rip),%xmm4 # 349b0 <_sk_srcover_rgba_8888_sse2_lowp+0x157c>
- DB 102,67,15,214,36,24 ; movq %xmm4,(%r8,%r11,1)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,236 ; ja 272e9 <_sk_store_a8_sse41_8bit+0x45>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,92,0,0,0 ; lea 0x5c(%rip),%r10 # 27364 <_sk_store_a8_sse41_8bit+0xc0>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,58,20,36,24,0 ; pextrb $0x0,%xmm4,(%r8,%r11,1)
- DB 235,206 ; jmp 272e9 <_sk_store_a8_sse41_8bit+0x45>
- DB 102,67,15,58,20,100,24,2,4 ; pextrb $0x4,%xmm4,0x2(%r8,%r11,1)
- DB 102,15,56,0,37,67,207,0,0 ; pshufb 0xcf43(%rip),%xmm4 # 34270 <_sk_srcover_rgba_8888_sse2_lowp+0xe3c>
- DB 102,67,15,58,21,36,24,0 ; pextrw $0x0,%xmm4,(%r8,%r11,1)
- DB 235,178 ; jmp 272e9 <_sk_store_a8_sse41_8bit+0x45>
- DB 102,67,15,58,20,100,24,6,12 ; pextrb $0xc,%xmm4,0x6(%r8,%r11,1)
- DB 102,67,15,58,20,100,24,5,10 ; pextrb $0xa,%xmm4,0x5(%r8,%r11,1)
- DB 102,67,15,58,20,100,24,4,8 ; pextrb $0x8,%xmm4,0x4(%r8,%r11,1)
- DB 102,15,56,0,37,37,207,0,0 ; pshufb 0xcf25(%rip),%xmm4 # 34280 <_sk_srcover_rgba_8888_sse2_lowp+0xe4c>
- DB 102,67,15,126,36,24 ; movd %xmm4,(%r8,%r11,1)
- DB 235,134 ; jmp 272e9 <_sk_store_a8_sse41_8bit+0x45>
- DB 144 ; nop
- DB 173 ; lods %ds:(%rsi),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,192 ; inc %eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,183,255,255,255,238 ; pushq -0x11000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_sse41_8bit
-_sk_load_g8_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,68 ; jne 273dc <_sk_load_g8_sse41_8bit+0x5c>
- DB 102,67,15,56,48,12,24 ; pmovzxbw (%r8,%r11,1),%xmm1
- DB 102,15,219,13,185,206,0,0 ; pand 0xceb9(%rip),%xmm1 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,56,51,193 ; pmovzxwd %xmm1,%xmm0
- DB 102,15,112,201,78 ; pshufd $0x4e,%xmm1,%xmm1
- DB 102,15,56,51,201 ; pmovzxwd %xmm1,%xmm1
- DB 102,15,111,37,178,214,0,0 ; movdqa 0xd6b2(%rip),%xmm4 # 34a70 <_sk_srcover_rgba_8888_sse2_lowp+0x163c>
- DB 102,15,56,64,204 ; pmulld %xmm4,%xmm1
- DB 102,15,56,64,196 ; pmulld %xmm4,%xmm0
- DB 102,15,111,37,240,213,0,0 ; movdqa 0xd5f0(%rip),%xmm4 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 102,15,235,196 ; por %xmm4,%xmm0
- DB 102,15,235,204 ; por %xmm4,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,175 ; ja 2739f <_sk_load_g8_sse41_8bit+0x1f>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,121,0,0,0 ; lea 0x79(%rip),%r10 # 27474 <_sk_load_g8_sse41_8bit+0xf4>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 235,144 ; jmp 2739f <_sk_load_g8_sse41_8bit+0x1f>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,196,200,2 ; pinsrw $0x2,%eax,%xmm1
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,58,14,200,3 ; pblendw $0x3,%xmm0,%xmm1
- DB 233,104,255,255,255 ; jmpq 2739f <_sk_load_g8_sse41_8bit+0x1f>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,196,200,6 ; pinsrw $0x6,%eax,%xmm1
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,200,5 ; pinsrw $0x5,%eax,%xmm1
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,200,4 ; pinsrw $0x4,%eax,%xmm1
- DB 102,67,15,110,4,24 ; movd (%r8,%r11,1),%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,58,14,200,15 ; pblendw $0xf,%xmm0,%xmm1
- DB 233,45,255,255,255 ; jmpq 2739f <_sk_load_g8_sse41_8bit+0x1f>
- DB 102,144 ; xchg %ax,%ax
- DB 144 ; nop
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,170,255,255,255,155 ; ljmp *-0x64000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde027484 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddff4050>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_dst_sse41_8bit
-_sk_load_g8_dst_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,68 ; jne 274ec <_sk_load_g8_dst_sse41_8bit+0x5c>
- DB 102,67,15,56,48,28,24 ; pmovzxbw (%r8,%r11,1),%xmm3
- DB 102,15,219,29,169,205,0,0 ; pand 0xcda9(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,56,51,211 ; pmovzxwd %xmm3,%xmm2
- DB 102,15,112,219,78 ; pshufd $0x4e,%xmm3,%xmm3
- DB 102,15,56,51,219 ; pmovzxwd %xmm3,%xmm3
- DB 102,15,111,37,162,213,0,0 ; movdqa 0xd5a2(%rip),%xmm4 # 34a70 <_sk_srcover_rgba_8888_sse2_lowp+0x163c>
- DB 102,15,56,64,220 ; pmulld %xmm4,%xmm3
- DB 102,15,56,64,212 ; pmulld %xmm4,%xmm2
- DB 102,15,111,37,224,212,0,0 ; movdqa 0xd4e0(%rip),%xmm4 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 102,15,235,212 ; por %xmm4,%xmm2
- DB 102,15,235,220 ; por %xmm4,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,175 ; ja 274af <_sk_load_g8_dst_sse41_8bit+0x1f>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,121,0,0,0 ; lea 0x79(%rip),%r10 # 27584 <_sk_load_g8_dst_sse41_8bit+0xf4>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 235,144 ; jmp 274af <_sk_load_g8_dst_sse41_8bit+0x1f>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,216,2 ; pinsrw $0x2,%eax,%xmm3
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 102,15,56,48,210 ; pmovzxbw %xmm2,%xmm2
- DB 102,15,58,14,218,3 ; pblendw $0x3,%xmm2,%xmm3
- DB 233,104,255,255,255 ; jmpq 274af <_sk_load_g8_dst_sse41_8bit+0x1f>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,216,6 ; pinsrw $0x6,%eax,%xmm3
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,216,5 ; pinsrw $0x5,%eax,%xmm3
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,216,4 ; pinsrw $0x4,%eax,%xmm3
- DB 102,67,15,110,20,24 ; movd (%r8,%r11,1),%xmm2
- DB 102,15,56,48,210 ; pmovzxbw %xmm2,%xmm2
- DB 102,15,58,14,218,15 ; pblendw $0xf,%xmm2,%xmm3
- DB 233,45,255,255,255 ; jmpq 274af <_sk_load_g8_dst_sse41_8bit+0x1f>
- DB 102,144 ; xchg %ax,%ax
- DB 144 ; nop
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,170,255,255,255,155 ; ljmp *-0x64000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde027594 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddff4160>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_srcover_rgba_8888_sse41_8bit
-_sk_srcover_rgba_8888_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,215,0,0,0 ; jne 27697 <_sk_srcover_rgba_8888_sse41_8bit+0xf7>
- DB 243,71,15,111,12,152 ; movdqu (%r8,%r11,4),%xmm9
- DB 243,71,15,111,68,152,16 ; movdqu 0x10(%r8,%r11,4),%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 102,15,111,53,248,211,0,0 ; movdqa 0xd3f8(%rip),%xmm6 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,56,0,254 ; pshufb %xmm6,%xmm7
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,56,0,230 ; pshufb %xmm6,%xmm4
- DB 102,65,15,112,241,78 ; pshufd $0x4e,%xmm9,%xmm6
- DB 102,68,15,56,48,238 ; pmovzxbw %xmm6,%xmm13
- DB 102,69,15,56,48,209 ; pmovzxbw %xmm9,%xmm10
- DB 102,65,15,112,240,78 ; pshufd $0x4e,%xmm8,%xmm6
- DB 102,68,15,56,48,222 ; pmovzxbw %xmm6,%xmm11
- DB 102,69,15,56,48,224 ; pmovzxbw %xmm8,%xmm12
- DB 102,15,112,244,78 ; pshufd $0x4e,%xmm4,%xmm6
- DB 102,15,56,48,238 ; pmovzxbw %xmm6,%xmm5
- DB 102,15,56,48,244 ; pmovzxbw %xmm4,%xmm6
- DB 102,15,112,231,78 ; pshufd $0x4e,%xmm7,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,65,15,213,252 ; pmullw %xmm12,%xmm7
- DB 102,65,15,213,227 ; pmullw %xmm11,%xmm4
- DB 102,65,15,213,242 ; pmullw %xmm10,%xmm6
- DB 102,65,15,213,237 ; pmullw %xmm13,%xmm5
- DB 102,65,15,253,237 ; paddw %xmm13,%xmm5
- DB 102,65,15,253,242 ; paddw %xmm10,%xmm6
- DB 102,65,15,253,227 ; paddw %xmm11,%xmm4
- DB 102,65,15,253,252 ; paddw %xmm12,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,245 ; packuswb %xmm5,%xmm6
- DB 102,68,15,248,199 ; psubb %xmm7,%xmm8
- DB 102,68,15,248,206 ; psubb %xmm6,%xmm9
- DB 102,68,15,252,200 ; paddb %xmm0,%xmm9
- DB 102,68,15,252,193 ; paddb %xmm1,%xmm8
- DB 117,78 ; jne 276d4 <_sk_srcover_rgba_8888_sse41_8bit+0x134>
- DB 243,71,15,127,12,152 ; movdqu %xmm9,(%r8,%r11,4)
- DB 243,71,15,127,68,152,16 ; movdqu %xmm8,0x10(%r8,%r11,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 15,135,24,255,255,255 ; ja 275cd <_sk_srcover_rgba_8888_sse41_8bit+0x2d>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,196,0,0,0 ; lea 0xc4(%rip),%r10 # 27784 <_sk_srcover_rgba_8888_sse41_8bit+0x1e4>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,71,15,110,12,152 ; movd (%r8,%r11,4),%xmm9
- DB 233,249,254,255,255 ; jmpq 275cd <_sk_srcover_rgba_8888_sse41_8bit+0x2d>
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,175 ; ja 27693 <_sk_srcover_rgba_8888_sse41_8bit+0xf3>
- DB 65,15,182,193 ; movzbl %r9b,%eax
- DB 76,141,13,177,0,0,0 ; lea 0xb1(%rip),%r9 # 277a0 <_sk_srcover_rgba_8888_sse41_8bit+0x200>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,71,15,126,12,152 ; movd %xmm9,(%r8,%r11,4)
- DB 235,147 ; jmp 27693 <_sk_srcover_rgba_8888_sse41_8bit+0xf3>
- DB 102,67,15,110,108,152,8 ; movd 0x8(%r8,%r11,4),%xmm5
- DB 102,68,15,112,205,69 ; pshufd $0x45,%xmm5,%xmm9
- DB 243,67,15,126,52,152 ; movq (%r8,%r11,4),%xmm6
- DB 102,68,15,58,14,206,15 ; pblendw $0xf,%xmm6,%xmm9
- DB 233,174,254,255,255 ; jmpq 275cd <_sk_srcover_rgba_8888_sse41_8bit+0x2d>
- DB 102,67,15,110,100,152,24 ; movd 0x18(%r8,%r11,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,71,15,58,34,68,152,20,1 ; pinsrd $0x1,0x14(%r8,%r11,4),%xmm8
- DB 102,71,15,58,34,68,152,16,0 ; pinsrd $0x0,0x10(%r8,%r11,4),%xmm8
- DB 243,71,15,111,12,152 ; movdqu (%r8,%r11,4),%xmm9
- DB 233,132,254,255,255 ; jmpq 275cd <_sk_srcover_rgba_8888_sse41_8bit+0x2d>
- DB 102,71,15,58,22,76,152,8,2 ; pextrd $0x2,%xmm9,0x8(%r8,%r11,4)
- DB 102,71,15,214,12,152 ; movq %xmm9,(%r8,%r11,4)
- DB 233,54,255,255,255 ; jmpq 27693 <_sk_srcover_rgba_8888_sse41_8bit+0xf3>
- DB 102,71,15,58,22,68,152,24,2 ; pextrd $0x2,%xmm8,0x18(%r8,%r11,4)
- DB 102,71,15,58,22,68,152,20,1 ; pextrd $0x1,%xmm8,0x14(%r8,%r11,4)
- DB 102,71,15,126,68,152,16 ; movd %xmm8,0x10(%r8,%r11,4)
- DB 243,71,15,127,12,152 ; movdqu %xmm9,(%r8,%r11,4)
- DB 233,18,255,255,255 ; jmpq 27693 <_sk_srcover_rgba_8888_sse41_8bit+0xf3>
- DB 15,31,0 ; nopl (%rax)
- DB 69,255 ; rex.RB (bad)
- DB 255 ; (bad)
- DB 255,137,255,255,255,124 ; decl 0x7cffffff(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 186,255,255,255,177 ; mov $0xb1ffffff,%edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,155 ; ljmp *-0x64000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,88,255 ; lcall *-0x1(%rax)
- DB 255 ; (bad)
- DB 255,178,255,255,255,169 ; pushq -0x56000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,214 ; callq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,207 ; dec %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189 ; .byte 0xbd
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_scale_1_float_sse41_8bit
-_sk_scale_1_float_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,32 ; movss (%rax),%xmm4
- DB 243,15,89,37,10,201,0,0 ; mulss 0xc90a(%rip),%xmm4 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 243,15,44,196 ; cvttss2si %xmm4,%eax
- DB 102,15,56,48,224 ; pmovzxbw %xmm0,%xmm4
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,15,56,48,232 ; pmovzxbw %xmm0,%xmm5
- DB 102,68,15,56,48,193 ; pmovzxbw %xmm1,%xmm8
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,68,15,56,48,200 ; pmovzxbw %xmm0,%xmm9
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,0 ; pshuflw $0x0,%xmm0,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,65,15,213,241 ; pmullw %xmm9,%xmm6
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,253,196 ; paddw %xmm4,%xmm0
- DB 102,15,253,253 ; paddw %xmm5,%xmm7
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,65,15,253,241 ; paddw %xmm9,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,206 ; packuswb %xmm6,%xmm1
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_u8_sse41_8bit
-_sk_scale_u8_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,170,0,0,0 ; jne 27916 <_sk_scale_u8_sse41_8bit+0xc6>
- DB 102,67,15,56,48,36,24 ; pmovzxbw (%r8,%r11,1),%xmm4
- DB 102,15,219,37,229,201,0,0 ; pand 0xc9e5(%rip),%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,56,0,45,248,209,0,0 ; pshufb 0xd1f8(%rip),%xmm5 # 34a80 <_sk_srcover_rgba_8888_sse2_lowp+0x164c>
- DB 102,15,56,0,37,255,209,0,0 ; pshufb 0xd1ff(%rip),%xmm4 # 34a90 <_sk_srcover_rgba_8888_sse2_lowp+0x165c>
- DB 102,15,112,240,78 ; pshufd $0x4e,%xmm0,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,68,15,56,48,208 ; pmovzxbw %xmm0,%xmm10
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,68,15,56,48,192 ; pmovzxbw %xmm0,%xmm8
- DB 102,68,15,56,48,201 ; pmovzxbw %xmm1,%xmm9
- DB 102,15,112,196,78 ; pshufd $0x4e,%xmm4,%xmm0
- DB 102,15,56,48,248 ; pmovzxbw %xmm0,%xmm7
- DB 102,15,56,48,196 ; pmovzxbw %xmm4,%xmm0
- DB 102,15,112,205,78 ; pshufd $0x4e,%xmm5,%xmm1
- DB 102,15,56,48,225 ; pmovzxbw %xmm1,%xmm4
- DB 102,15,56,48,205 ; pmovzxbw %xmm5,%xmm1
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
- DB 102,15,213,254 ; pmullw %xmm6,%xmm7
- DB 102,15,253,254 ; paddw %xmm6,%xmm7
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,204 ; packuswb %xmm4,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 15,135,69,255,255,255 ; ja 27873 <_sk_scale_u8_sse41_8bit+0x23>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,123,0,0,0 ; lea 0x7b(%rip),%r10 # 279b4 <_sk_scale_u8_sse41_8bit+0x164>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 233,35,255,255,255 ; jmpq 27873 <_sk_scale_u8_sse41_8bit+0x23>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,224,2 ; pinsrw $0x2,%eax,%xmm4
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,58,14,229,3 ; pblendw $0x3,%xmm5,%xmm4
- DB 233,251,254,255,255 ; jmpq 27873 <_sk_scale_u8_sse41_8bit+0x23>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,224,6 ; pinsrw $0x6,%eax,%xmm4
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,224,5 ; pinsrw $0x5,%eax,%xmm4
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,224,4 ; pinsrw $0x4,%eax,%xmm4
- DB 102,67,15,110,44,24 ; movd (%r8,%r11,1),%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,58,14,229,15 ; pblendw $0xf,%xmm5,%xmm4
- DB 233,192,254,255,255 ; jmpq 27873 <_sk_scale_u8_sse41_8bit+0x23>
- DB 144 ; nop
- DB 142,255 ; mov %edi,%?
- DB 255 ; (bad)
- DB 255,171,255,255,255,156 ; ljmp *-0x63000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 233,255,255,255,222 ; jmpq ffffffffdf0279c4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdeff4590>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,196 ; inc %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_1_float_sse41_8bit
-_sk_lerp_1_float_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,32 ; movss (%rax),%xmm4
- DB 243,15,89,37,246,198,0,0 ; mulss 0xc6f6(%rip),%xmm4 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 243,15,44,196 ; cvttss2si %xmm4,%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,0 ; pshuflw $0x0,%xmm4,%xmm4
- DB 102,68,15,112,196,80 ; pshufd $0x50,%xmm4,%xmm8
- DB 102,68,15,56,48,208 ; pmovzxbw %xmm0,%xmm10
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,68,15,56,48,201 ; pmovzxbw %xmm1,%xmm9
- DB 102,15,112,201,78 ; pshufd $0x4e,%xmm1,%xmm1
- DB 102,15,56,48,201 ; pmovzxbw %xmm1,%xmm1
- DB 102,15,56,48,252 ; pmovzxbw %xmm4,%xmm7
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,213,225 ; pmullw %xmm1,%xmm4
- DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,65,15,213,233 ; pmullw %xmm9,%xmm5
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,65,15,213,250 ; pmullw %xmm10,%xmm7
- DB 102,65,15,253,250 ; paddw %xmm10,%xmm7
- DB 102,15,253,240 ; paddw %xmm0,%xmm6
- DB 102,65,15,253,233 ; paddw %xmm9,%xmm5
- DB 102,15,253,225 ; paddw %xmm1,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,236 ; packuswb %xmm4,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,254 ; packuswb %xmm6,%xmm7
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,65,15,239,192 ; pxor %xmm8,%xmm0
- DB 102,15,112,202,78 ; pshufd $0x4e,%xmm2,%xmm1
- DB 102,68,15,56,48,217 ; pmovzxbw %xmm1,%xmm11
- DB 102,68,15,56,48,210 ; pmovzxbw %xmm2,%xmm10
- DB 102,15,112,203,78 ; pshufd $0x4e,%xmm3,%xmm1
- DB 102,68,15,56,48,193 ; pmovzxbw %xmm1,%xmm8
- DB 102,68,15,56,48,203 ; pmovzxbw %xmm3,%xmm9
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,56,48,225 ; pmovzxbw %xmm1,%xmm4
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,65,15,213,240 ; pmullw %xmm8,%xmm6
- DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
- DB 102,65,15,213,227 ; pmullw %xmm11,%xmm4
- DB 102,65,15,253,227 ; paddw %xmm11,%xmm4
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,65,15,253,240 ; paddw %xmm8,%xmm6
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,206 ; packuswb %xmm6,%xmm1
- DB 102,15,252,205 ; paddb %xmm5,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,196 ; packuswb %xmm4,%xmm0
- DB 102,15,252,199 ; paddb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lerp_u8_sse41_8bit
-_sk_lerp_u8_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,77,1,0,0 ; jne 27c61 <_sk_lerp_u8_sse41_8bit+0x169>
- DB 102,71,15,56,48,4,24 ; pmovzxbw (%r8,%r11,1),%xmm8
- DB 102,68,15,219,5,60,199,0,0 ; pand 0xc73c(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
- DB 102,15,56,0,61,78,207,0,0 ; pshufb 0xcf4e(%rip),%xmm7 # 34a80 <_sk_srcover_rgba_8888_sse2_lowp+0x164c>
- DB 102,68,15,56,0,5,84,207,0,0 ; pshufb 0xcf54(%rip),%xmm8 # 34a90 <_sk_srcover_rgba_8888_sse2_lowp+0x165c>
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,68,15,56,48,216 ; pmovzxbw %xmm0,%xmm11
- DB 102,15,112,233,78 ; pshufd $0x4e,%xmm1,%xmm5
- DB 102,68,15,56,48,205 ; pmovzxbw %xmm5,%xmm9
- DB 102,68,15,56,48,209 ; pmovzxbw %xmm1,%xmm10
- DB 102,65,15,112,232,78 ; pshufd $0x4e,%xmm8,%xmm5
- DB 102,15,56,48,205 ; pmovzxbw %xmm5,%xmm1
- DB 102,69,15,56,48,232 ; pmovzxbw %xmm8,%xmm13
- DB 102,15,112,247,78 ; pshufd $0x4e,%xmm7,%xmm6
- DB 102,15,56,48,198 ; pmovzxbw %xmm6,%xmm0
- DB 102,15,56,48,247 ; pmovzxbw %xmm7,%xmm6
- DB 102,65,15,213,242 ; pmullw %xmm10,%xmm6
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,69,15,213,235 ; pmullw %xmm11,%xmm13
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,69,15,253,235 ; paddw %xmm11,%xmm13
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,65,15,253,242 ; paddw %xmm10,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,240 ; packuswb %xmm0,%xmm6
- DB 102,65,15,113,213,8 ; psrlw $0x8,%xmm13
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,68,15,103,233 ; packuswb %xmm1,%xmm13
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,239,248 ; pxor %xmm0,%xmm7
- DB 102,68,15,239,192 ; pxor %xmm0,%xmm8
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,68,15,56,48,200 ; pmovzxbw %xmm0,%xmm9
- DB 102,68,15,56,48,210 ; pmovzxbw %xmm2,%xmm10
- DB 102,15,112,195,78 ; pshufd $0x4e,%xmm3,%xmm0
- DB 102,68,15,56,48,216 ; pmovzxbw %xmm0,%xmm11
- DB 102,68,15,56,48,227 ; pmovzxbw %xmm3,%xmm12
- DB 102,65,15,112,192,78 ; pshufd $0x4e,%xmm8,%xmm0
- DB 102,15,56,48,224 ; pmovzxbw %xmm0,%xmm4
- DB 102,65,15,56,48,192 ; pmovzxbw %xmm8,%xmm0
- DB 102,15,112,207,78 ; pshufd $0x4e,%xmm7,%xmm1
- DB 102,15,56,48,233 ; pmovzxbw %xmm1,%xmm5
- DB 102,15,56,48,207 ; pmovzxbw %xmm7,%xmm1
- DB 102,65,15,213,204 ; pmullw %xmm12,%xmm1
- DB 102,65,15,213,235 ; pmullw %xmm11,%xmm5
- DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
- DB 102,65,15,213,225 ; pmullw %xmm9,%xmm4
- DB 102,65,15,253,225 ; paddw %xmm9,%xmm4
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,65,15,253,235 ; paddw %xmm11,%xmm5
- DB 102,65,15,253,204 ; paddw %xmm12,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 102,15,252,206 ; paddb %xmm6,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,196 ; packuswb %xmm4,%xmm0
- DB 102,65,15,252,197 ; paddb %xmm13,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 15,135,161,254,255,255 ; ja 27b1b <_sk_lerp_u8_sse41_8bit+0x23>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,131,0,0,0 ; lea 0x83(%rip),%r10 # 27d08 <_sk_lerp_u8_sse41_8bit+0x210>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 233,126,254,255,255 ; jmpq 27b1b <_sk_lerp_u8_sse41_8bit+0x23>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,68,15,196,192,2 ; pinsrw $0x2,%eax,%xmm8
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,68,15,58,14,196,3 ; pblendw $0x3,%xmm4,%xmm8
- DB 233,83,254,255,255 ; jmpq 27b1b <_sk_lerp_u8_sse41_8bit+0x23>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,68,15,196,192,6 ; pinsrw $0x6,%eax,%xmm8
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,68,15,196,192,5 ; pinsrw $0x5,%eax,%xmm8
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,68,15,196,192,4 ; pinsrw $0x4,%eax,%xmm8
- DB 102,67,15,110,36,24 ; movd (%r8,%r11,1),%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,68,15,58,14,196,15 ; pblendw $0xf,%xmm4,%xmm8
- DB 233,19,254,255,255 ; jmpq 27b1b <_sk_lerp_u8_sse41_8bit+0x23>
- DB 134,255 ; xchg %bh,%bh
- DB 255 ; (bad)
- DB 255,166,255,255,255,149 ; jmpq *-0x6a000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 233,255,255,255,221 ; jmpq ffffffffde027d18 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddff48e4>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,192 ; inc %eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_move_src_dst_sse41_8bit
-_sk_move_src_dst_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_dst_src_sse41_8bit
-_sk_move_dst_src_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_black_color_sse41_8bit
-_sk_black_color_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,5,127,204,0,0 ; movaps 0xcc7f(%rip),%xmm0 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_white_color_sse41_8bit
-_sk_white_color_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,118,201 ; pcmpeqd %xmm1,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clear_sse41_8bit
-_sk_clear_sse41_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcatop_sse41_8bit
-_sk_srcatop_sse41_8bit LABEL PROC
- DB 102,68,15,111,5,107,204,0,0 ; movdqa 0xcc6b(%rip),%xmm8 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,68,15,112,203,78 ; pshufd $0x4e,%xmm3,%xmm9
- DB 102,68,15,56,48,219 ; pmovzxbw %xmm3,%xmm11
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,65,15,56,0,248 ; pshufb %xmm8,%xmm7
- DB 102,68,15,112,210,78 ; pshufd $0x4e,%xmm2,%xmm10
- DB 102,68,15,56,48,226 ; pmovzxbw %xmm2,%xmm12
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,65,15,56,0,224 ; pshufb %xmm8,%xmm4
- DB 102,15,112,240,78 ; pshufd $0x4e,%xmm0,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,68,15,56,48,232 ; pmovzxbw %xmm0,%xmm13
- DB 102,15,112,236,78 ; pshufd $0x4e,%xmm4,%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,213,238 ; pmullw %xmm6,%xmm5
- DB 102,15,253,238 ; paddw %xmm6,%xmm5
- DB 102,15,112,241,78 ; pshufd $0x4e,%xmm1,%xmm6
- DB 102,68,15,56,48,246 ; pmovzxbw %xmm6,%xmm14
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,65,15,213,229 ; pmullw %xmm13,%xmm4
- DB 102,65,15,253,229 ; paddw %xmm13,%xmm4
- DB 102,15,112,247,78 ; pshufd $0x4e,%xmm7,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,65,15,213,246 ; pmullw %xmm14,%xmm6
- DB 102,65,15,253,246 ; paddw %xmm14,%xmm6
- DB 102,68,15,56,48,233 ; pmovzxbw %xmm1,%xmm13
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,65,15,213,253 ; pmullw %xmm13,%xmm7
- DB 102,65,15,253,253 ; paddw %xmm13,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,254 ; packuswb %xmm6,%xmm7
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,229 ; packuswb %xmm5,%xmm4
- DB 102,65,15,56,0,192 ; pshufb %xmm8,%xmm0
- DB 102,65,15,56,0,200 ; pshufb %xmm8,%xmm1
- DB 102,15,118,237 ; pcmpeqd %xmm5,%xmm5
- DB 102,15,239,205 ; pxor %xmm5,%xmm1
- DB 102,15,239,197 ; pxor %xmm5,%xmm0
- DB 102,69,15,56,48,210 ; pmovzxbw %xmm10,%xmm10
- DB 102,69,15,56,48,193 ; pmovzxbw %xmm9,%xmm8
- DB 102,15,112,240,78 ; pshufd $0x4e,%xmm0,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,112,233,78 ; pshufd $0x4e,%xmm1,%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,56,48,201 ; pmovzxbw %xmm1,%xmm1
- DB 102,65,15,213,203 ; pmullw %xmm11,%xmm1
- DB 102,65,15,213,232 ; pmullw %xmm8,%xmm5
- DB 102,65,15,213,196 ; pmullw %xmm12,%xmm0
- DB 102,65,15,213,242 ; pmullw %xmm10,%xmm6
- DB 102,65,15,253,242 ; paddw %xmm10,%xmm6
- DB 102,65,15,253,196 ; paddw %xmm12,%xmm0
- DB 102,65,15,253,232 ; paddw %xmm8,%xmm5
- DB 102,65,15,253,203 ; paddw %xmm11,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 102,15,252,207 ; paddb %xmm7,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,198 ; packuswb %xmm6,%xmm0
- DB 102,15,252,196 ; paddb %xmm4,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstatop_sse41_8bit
-_sk_dstatop_sse41_8bit LABEL PROC
- DB 102,68,15,111,5,35,203,0,0 ; movdqa 0xcb23(%rip),%xmm8 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,68,15,112,201,78 ; pshufd $0x4e,%xmm1,%xmm9
- DB 102,68,15,56,48,217 ; pmovzxbw %xmm1,%xmm11
- DB 102,65,15,56,0,200 ; pshufb %xmm8,%xmm1
- DB 102,68,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm10
- DB 102,68,15,56,48,224 ; pmovzxbw %xmm0,%xmm12
- DB 102,65,15,56,0,192 ; pshufb %xmm8,%xmm0
- DB 102,15,112,234,78 ; pshufd $0x4e,%xmm2,%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,56,48,250 ; pmovzxbw %xmm2,%xmm7
- DB 102,15,112,243,78 ; pshufd $0x4e,%xmm3,%xmm6
- DB 102,68,15,56,48,238 ; pmovzxbw %xmm6,%xmm13
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,15,213,229 ; pmullw %xmm5,%xmm4
- DB 102,15,253,229 ; paddw %xmm5,%xmm4
- DB 102,15,56,48,235 ; pmovzxbw %xmm3,%xmm5
- DB 102,15,56,48,240 ; pmovzxbw %xmm0,%xmm6
- DB 102,15,213,247 ; pmullw %xmm7,%xmm6
- DB 102,15,253,247 ; paddw %xmm7,%xmm6
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,56,48,249 ; pmovzxbw %xmm1,%xmm7
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,65,15,213,197 ; pmullw %xmm13,%xmm0
- DB 102,65,15,253,197 ; paddw %xmm13,%xmm0
- DB 102,15,253,253 ; paddw %xmm5,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,248 ; packuswb %xmm0,%xmm7
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,244 ; packuswb %xmm4,%xmm6
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,65,15,56,0,192 ; pshufb %xmm8,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,65,15,56,0,200 ; pshufb %xmm8,%xmm1
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 102,15,239,196 ; pxor %xmm4,%xmm0
- DB 102,69,15,56,48,210 ; pmovzxbw %xmm10,%xmm10
- DB 102,69,15,56,48,193 ; pmovzxbw %xmm9,%xmm8
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,15,56,48,201 ; pmovzxbw %xmm1,%xmm1
- DB 102,65,15,213,203 ; pmullw %xmm11,%xmm1
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,65,15,213,196 ; pmullw %xmm12,%xmm0
- DB 102,65,15,213,234 ; pmullw %xmm10,%xmm5
- DB 102,65,15,253,234 ; paddw %xmm10,%xmm5
- DB 102,65,15,253,196 ; paddw %xmm12,%xmm0
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,65,15,253,203 ; paddw %xmm11,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,204 ; packuswb %xmm4,%xmm1
- DB 102,15,252,207 ; paddb %xmm7,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,197 ; packuswb %xmm5,%xmm0
- DB 102,15,252,198 ; paddb %xmm6,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcin_sse41_8bit
-_sk_srcin_sse41_8bit LABEL PROC
- DB 102,15,111,37,226,201,0,0 ; movdqa 0xc9e2(%rip),%xmm4 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,56,0,236 ; pshufb %xmm4,%xmm5
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,56,0,244 ; pshufb %xmm4,%xmm6
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,68,15,56,48,208 ; pmovzxbw %xmm0,%xmm10
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,68,15,56,48,192 ; pmovzxbw %xmm0,%xmm8
- DB 102,68,15,56,48,201 ; pmovzxbw %xmm1,%xmm9
- DB 102,15,112,198,78 ; pshufd $0x4e,%xmm6,%xmm0
- DB 102,15,56,48,248 ; pmovzxbw %xmm0,%xmm7
- DB 102,15,56,48,198 ; pmovzxbw %xmm6,%xmm0
- DB 102,15,112,205,78 ; pshufd $0x4e,%xmm5,%xmm1
- DB 102,15,56,48,241 ; pmovzxbw %xmm1,%xmm6
- DB 102,15,56,48,205 ; pmovzxbw %xmm5,%xmm1
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,65,15,213,240 ; pmullw %xmm8,%xmm6
- DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,65,15,253,240 ; paddw %xmm8,%xmm6
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,206 ; packuswb %xmm6,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstin_sse41_8bit
-_sk_dstin_sse41_8bit LABEL PROC
- DB 102,15,111,37,67,201,0,0 ; movdqa 0xc943(%rip),%xmm4 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,15,56,0,204 ; pshufb %xmm4,%xmm1
- DB 102,15,56,0,196 ; pshufb %xmm4,%xmm0
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,68,15,56,48,202 ; pmovzxbw %xmm2,%xmm9
- DB 102,15,112,243,78 ; pshufd $0x4e,%xmm3,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,68,15,56,48,195 ; pmovzxbw %xmm3,%xmm8
- DB 102,15,112,248,78 ; pshufd $0x4e,%xmm0,%xmm7
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,112,233,78 ; pshufd $0x4e,%xmm1,%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,56,48,201 ; pmovzxbw %xmm1,%xmm1
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,15,213,238 ; pmullw %xmm6,%xmm5
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,253,238 ; paddw %xmm6,%xmm5
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcout_sse41_8bit
-_sk_srcout_sse41_8bit LABEL PROC
- DB 102,15,111,37,175,200,0,0 ; movdqa 0xc8af(%rip),%xmm4 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,56,0,236 ; pshufb %xmm4,%xmm5
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,56,0,244 ; pshufb %xmm4,%xmm6
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,239,244 ; pxor %xmm4,%xmm6
- DB 102,15,239,236 ; pxor %xmm4,%xmm5
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,68,15,56,48,208 ; pmovzxbw %xmm0,%xmm10
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,68,15,56,48,192 ; pmovzxbw %xmm0,%xmm8
- DB 102,68,15,56,48,201 ; pmovzxbw %xmm1,%xmm9
- DB 102,15,112,197,78 ; pshufd $0x4e,%xmm5,%xmm0
- DB 102,15,56,48,248 ; pmovzxbw %xmm0,%xmm7
- DB 102,15,56,48,197 ; pmovzxbw %xmm5,%xmm0
- DB 102,15,112,206,78 ; pshufd $0x4e,%xmm6,%xmm1
- DB 102,15,56,48,233 ; pmovzxbw %xmm1,%xmm5
- DB 102,15,56,48,206 ; pmovzxbw %xmm6,%xmm1
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,65,15,213,232 ; pmullw %xmm8,%xmm5
- DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,65,15,253,232 ; paddw %xmm8,%xmm5
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstout_sse41_8bit
-_sk_dstout_sse41_8bit LABEL PROC
- DB 102,15,111,37,4,200,0,0 ; movdqa 0xc804(%rip),%xmm4 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,15,56,0,196 ; pshufb %xmm4,%xmm0
- DB 102,15,56,0,204 ; pshufb %xmm4,%xmm1
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 102,15,239,196 ; pxor %xmm4,%xmm0
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,68,15,56,48,202 ; pmovzxbw %xmm2,%xmm9
- DB 102,15,112,243,78 ; pshufd $0x4e,%xmm3,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,68,15,56,48,195 ; pmovzxbw %xmm3,%xmm8
- DB 102,15,112,248,78 ; pshufd $0x4e,%xmm0,%xmm7
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,112,233,78 ; pshufd $0x4e,%xmm1,%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,56,48,201 ; pmovzxbw %xmm1,%xmm1
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,15,213,238 ; pmullw %xmm6,%xmm5
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,253,238 ; paddw %xmm6,%xmm5
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_sse41_8bit
-_sk_srcover_sse41_8bit LABEL PROC
- DB 102,15,111,37,100,199,0,0 ; movdqa 0xc764(%rip),%xmm4 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,56,0,236 ; pshufb %xmm4,%xmm5
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,56,0,244 ; pshufb %xmm4,%xmm6
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,68,15,56,48,220 ; pmovzxbw %xmm4,%xmm11
- DB 102,68,15,56,48,194 ; pmovzxbw %xmm2,%xmm8
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,68,15,56,48,204 ; pmovzxbw %xmm4,%xmm9
- DB 102,68,15,56,48,211 ; pmovzxbw %xmm3,%xmm10
- DB 102,15,112,230,78 ; pshufd $0x4e,%xmm6,%xmm4
- DB 102,15,56,48,252 ; pmovzxbw %xmm4,%xmm7
- DB 102,15,56,48,230 ; pmovzxbw %xmm6,%xmm4
- DB 102,15,112,245,78 ; pshufd $0x4e,%xmm5,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,65,15,213,234 ; pmullw %xmm10,%xmm5
- DB 102,65,15,213,241 ; pmullw %xmm9,%xmm6
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,65,15,213,251 ; pmullw %xmm11,%xmm7
- DB 102,65,15,253,251 ; paddw %xmm11,%xmm7
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,65,15,253,241 ; paddw %xmm9,%xmm6
- DB 102,65,15,253,234 ; paddw %xmm10,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,231 ; packuswb %xmm7,%xmm4
- DB 102,15,252,203 ; paddb %xmm3,%xmm1
- DB 102,15,248,205 ; psubb %xmm5,%xmm1
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,248,196 ; psubb %xmm4,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstover_sse41_8bit
-_sk_dstover_sse41_8bit LABEL PROC
- DB 102,68,15,111,5,177,198,0,0 ; movdqa 0xc6b1(%rip),%xmm8 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,68,15,112,201,78 ; pshufd $0x4e,%xmm1,%xmm9
- DB 102,68,15,56,48,209 ; pmovzxbw %xmm1,%xmm10
- DB 102,15,252,203 ; paddb %xmm3,%xmm1
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,65,15,56,0,248 ; pshufb %xmm8,%xmm7
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,68,15,56,48,216 ; pmovzxbw %xmm0,%xmm11
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,65,15,56,0,232 ; pshufb %xmm8,%xmm5
- DB 102,68,15,56,48,228 ; pmovzxbw %xmm4,%xmm12
- DB 102,69,15,56,48,193 ; pmovzxbw %xmm9,%xmm8
- DB 102,15,112,245,78 ; pshufd $0x4e,%xmm5,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,112,231,78 ; pshufd $0x4e,%xmm7,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,65,15,213,250 ; pmullw %xmm10,%xmm7
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,65,15,213,235 ; pmullw %xmm11,%xmm5
- DB 102,65,15,213,244 ; pmullw %xmm12,%xmm6
- DB 102,65,15,253,244 ; paddw %xmm12,%xmm6
- DB 102,65,15,253,235 ; paddw %xmm11,%xmm5
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,65,15,253,250 ; paddw %xmm10,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 102,15,248,207 ; psubb %xmm7,%xmm1
- DB 102,15,248,197 ; psubb %xmm5,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_modulate_sse41_8bit
-_sk_modulate_sse41_8bit LABEL PROC
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,68,15,56,48,200 ; pmovzxbw %xmm0,%xmm9
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,56,48,240 ; pmovzxbw %xmm0,%xmm6
- DB 102,68,15,56,48,193 ; pmovzxbw %xmm1,%xmm8
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,15,56,48,248 ; pmovzxbw %xmm0,%xmm7
- DB 102,15,56,48,194 ; pmovzxbw %xmm2,%xmm0
- DB 102,15,112,203,78 ; pshufd $0x4e,%xmm3,%xmm1
- DB 102,15,56,48,233 ; pmovzxbw %xmm1,%xmm5
- DB 102,15,56,48,203 ; pmovzxbw %xmm3,%xmm1
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,15,213,238 ; pmullw %xmm6,%xmm5
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,253,238 ; paddw %xmm6,%xmm5
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_multiply_sse41_8bit
-_sk_multiply_sse41_8bit LABEL PROC
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,68,15,111,37,113,197,0,0 ; movdqa 0xc571(%rip),%xmm12 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,127,68,36,16 ; movdqa %xmm0,0x10(%rsp)
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,68,15,56,48,192 ; pmovzxbw %xmm0,%xmm8
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,65,15,56,0,236 ; pshufb %xmm12,%xmm5
- DB 102,68,15,112,243,78 ; pshufd $0x4e,%xmm3,%xmm14
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,127,28,36 ; movdqa %xmm3,(%rsp)
- DB 102,65,15,56,0,244 ; pshufb %xmm12,%xmm6
- DB 102,69,15,118,255 ; pcmpeqd %xmm15,%xmm15
- DB 102,65,15,239,247 ; pxor %xmm15,%xmm6
- DB 102,65,15,239,239 ; pxor %xmm15,%xmm5
- DB 102,15,112,252,78 ; pshufd $0x4e,%xmm4,%xmm7
- DB 102,68,15,56,48,223 ; pmovzxbw %xmm7,%xmm11
- DB 102,68,15,56,48,212 ; pmovzxbw %xmm4,%xmm10
- DB 102,15,112,249,78 ; pshufd $0x4e,%xmm1,%xmm7
- DB 102,68,15,56,48,207 ; pmovzxbw %xmm7,%xmm9
- DB 102,68,15,56,48,233 ; pmovzxbw %xmm1,%xmm13
- DB 102,15,112,254,78 ; pshufd $0x4e,%xmm6,%xmm7
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,65,15,213,245 ; pmullw %xmm13,%xmm6
- DB 102,65,15,213,249 ; pmullw %xmm9,%xmm7
- DB 102,65,15,253,249 ; paddw %xmm9,%xmm7
- DB 102,65,15,253,245 ; paddw %xmm13,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,247 ; packuswb %xmm7,%xmm6
- DB 102,15,112,253,78 ; pshufd $0x4e,%xmm5,%xmm7
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,15,56,48,197 ; pmovzxbw %xmm5,%xmm0
- DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
- DB 102,65,15,213,251 ; pmullw %xmm11,%xmm7
- DB 102,65,15,253,251 ; paddw %xmm11,%xmm7
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 102,15,56,48,235 ; pmovzxbw %xmm3,%xmm5
- DB 102,65,15,56,0,228 ; pshufb %xmm12,%xmm4
- DB 102,65,15,56,0,204 ; pshufb %xmm12,%xmm1
- DB 102,65,15,239,207 ; pxor %xmm15,%xmm1
- DB 102,65,15,239,231 ; pxor %xmm15,%xmm4
- DB 102,68,15,56,48,226 ; pmovzxbw %xmm2,%xmm12
- DB 102,65,15,56,48,254 ; pmovzxbw %xmm14,%xmm7
- DB 102,15,112,220,78 ; pshufd $0x4e,%xmm4,%xmm3
- DB 102,15,56,48,219 ; pmovzxbw %xmm3,%xmm3
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,15,56,48,210 ; pmovzxbw %xmm2,%xmm2
- DB 102,15,56,48,201 ; pmovzxbw %xmm1,%xmm1
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,65,15,213,220 ; pmullw %xmm12,%xmm3
- DB 102,65,15,253,220 ; paddw %xmm12,%xmm3
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,253,205 ; paddw %xmm5,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,103,202 ; packuswb %xmm2,%xmm1
- DB 102,15,252,206 ; paddb %xmm6,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,103,227 ; packuswb %xmm3,%xmm4
- DB 102,15,252,224 ; paddb %xmm0,%xmm4
- DB 102,65,15,213,237 ; pmullw %xmm13,%xmm5
- DB 102,65,15,213,249 ; pmullw %xmm9,%xmm7
- DB 102,69,15,213,194 ; pmullw %xmm10,%xmm8
- DB 102,69,15,213,227 ; pmullw %xmm11,%xmm12
- DB 102,69,15,253,227 ; paddw %xmm11,%xmm12
- DB 102,69,15,253,194 ; paddw %xmm10,%xmm8
- DB 102,65,15,253,249 ; paddw %xmm9,%xmm7
- DB 102,65,15,253,237 ; paddw %xmm13,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,239 ; packuswb %xmm7,%xmm5
- DB 102,15,252,233 ; paddb %xmm1,%xmm5
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,69,15,103,196 ; packuswb %xmm12,%xmm8
- DB 102,68,15,252,196 ; paddb %xmm4,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,84,36,16 ; movaps 0x10(%rsp),%xmm2
- DB 15,40,28,36 ; movaps (%rsp),%xmm3
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_screen_sse41_8bit
-_sk_screen_sse41_8bit LABEL PROC
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,239,236 ; pxor %xmm4,%xmm5
- DB 102,15,239,224 ; pxor %xmm0,%xmm4
- DB 102,15,112,244,78 ; pshufd $0x4e,%xmm4,%xmm6
- DB 102,68,15,56,48,222 ; pmovzxbw %xmm6,%xmm11
- DB 102,68,15,56,48,212 ; pmovzxbw %xmm4,%xmm10
- DB 102,15,112,229,78 ; pshufd $0x4e,%xmm5,%xmm4
- DB 102,68,15,56,48,196 ; pmovzxbw %xmm4,%xmm8
- DB 102,68,15,56,48,205 ; pmovzxbw %xmm5,%xmm9
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,15,56,48,236 ; pmovzxbw %xmm4,%xmm5
- DB 102,15,56,48,226 ; pmovzxbw %xmm2,%xmm4
- DB 102,15,112,251,78 ; pshufd $0x4e,%xmm3,%xmm7
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,15,56,48,243 ; pmovzxbw %xmm3,%xmm6
- DB 102,65,15,213,241 ; pmullw %xmm9,%xmm6
- DB 102,65,15,213,248 ; pmullw %xmm8,%xmm7
- DB 102,65,15,213,226 ; pmullw %xmm10,%xmm4
- DB 102,65,15,213,235 ; pmullw %xmm11,%xmm5
- DB 102,65,15,253,235 ; paddw %xmm11,%xmm5
- DB 102,65,15,253,226 ; paddw %xmm10,%xmm4
- DB 102,65,15,253,248 ; paddw %xmm8,%xmm7
- DB 102,65,15,253,241 ; paddw %xmm9,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,247 ; packuswb %xmm7,%xmm6
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,229 ; packuswb %xmm5,%xmm4
- DB 102,15,252,196 ; paddb %xmm4,%xmm0
- DB 102,15,252,206 ; paddb %xmm6,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xor__sse41_8bit
-_sk_xor__sse41_8bit LABEL PROC
- DB 102,68,15,111,5,10,195,0,0 ; movdqa 0xc30a(%rip),%xmm8 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,68,15,112,202,78 ; pshufd $0x4e,%xmm2,%xmm9
- DB 102,68,15,56,48,218 ; pmovzxbw %xmm2,%xmm11
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,65,15,56,0,248 ; pshufb %xmm8,%xmm7
- DB 102,68,15,112,211,78 ; pshufd $0x4e,%xmm3,%xmm10
- DB 102,68,15,56,48,227 ; pmovzxbw %xmm3,%xmm12
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,65,15,56,0,224 ; pshufb %xmm8,%xmm4
- DB 102,69,15,118,237 ; pcmpeqd %xmm13,%xmm13
- DB 102,65,15,239,229 ; pxor %xmm13,%xmm4
- DB 102,65,15,239,253 ; pxor %xmm13,%xmm7
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,68,15,56,48,240 ; pmovzxbw %xmm0,%xmm14
- DB 102,15,112,247,78 ; pshufd $0x4e,%xmm7,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,15,213,245 ; pmullw %xmm5,%xmm6
- DB 102,15,253,245 ; paddw %xmm5,%xmm6
- DB 102,15,112,233,78 ; pshufd $0x4e,%xmm1,%xmm5
- DB 102,68,15,56,48,253 ; pmovzxbw %xmm5,%xmm15
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,65,15,213,254 ; pmullw %xmm14,%xmm7
- DB 102,65,15,253,254 ; paddw %xmm14,%xmm7
- DB 102,15,112,236,78 ; pshufd $0x4e,%xmm4,%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,65,15,213,239 ; pmullw %xmm15,%xmm5
- DB 102,65,15,253,239 ; paddw %xmm15,%xmm5
- DB 102,68,15,56,48,241 ; pmovzxbw %xmm1,%xmm14
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,65,15,213,230 ; pmullw %xmm14,%xmm4
- DB 102,65,15,253,230 ; paddw %xmm14,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,229 ; packuswb %xmm5,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,254 ; packuswb %xmm6,%xmm7
- DB 102,65,15,56,0,192 ; pshufb %xmm8,%xmm0
- DB 102,65,15,56,0,200 ; pshufb %xmm8,%xmm1
- DB 102,65,15,239,205 ; pxor %xmm13,%xmm1
- DB 102,65,15,239,197 ; pxor %xmm13,%xmm0
- DB 102,69,15,56,48,201 ; pmovzxbw %xmm9,%xmm9
- DB 102,69,15,56,48,194 ; pmovzxbw %xmm10,%xmm8
- DB 102,15,112,240,78 ; pshufd $0x4e,%xmm0,%xmm6
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,112,233,78 ; pshufd $0x4e,%xmm1,%xmm5
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,56,48,201 ; pmovzxbw %xmm1,%xmm1
- DB 102,65,15,213,204 ; pmullw %xmm12,%xmm1
- DB 102,65,15,213,232 ; pmullw %xmm8,%xmm5
- DB 102,65,15,213,195 ; pmullw %xmm11,%xmm0
- DB 102,65,15,213,241 ; pmullw %xmm9,%xmm6
- DB 102,65,15,253,241 ; paddw %xmm9,%xmm6
- DB 102,65,15,253,195 ; paddw %xmm11,%xmm0
- DB 102,65,15,253,232 ; paddw %xmm8,%xmm5
- DB 102,65,15,253,204 ; paddw %xmm12,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 102,15,252,204 ; paddb %xmm4,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,198 ; packuswb %xmm6,%xmm0
- DB 102,15,252,199 ; paddb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_plus__sse41_8bit
-_sk_plus__sse41_8bit LABEL PROC
- DB 102,15,220,194 ; paddusb %xmm2,%xmm0
- DB 102,15,220,203 ; paddusb %xmm3,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_darken_sse41_8bit
-_sk_darken_sse41_8bit LABEL PROC
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,68,15,111,208 ; movdqa %xmm0,%xmm10
- DB 102,15,111,37,156,193,0,0 ; movdqa 0xc19c(%rip),%xmm4 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,65,15,112,217,78 ; pshufd $0x4e,%xmm9,%xmm3
- DB 102,15,127,92,36,16 ; movdqa %xmm3,0x10(%rsp)
- DB 102,69,15,56,48,217 ; pmovzxbw %xmm9,%xmm11
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,56,0,196 ; pshufb %xmm4,%xmm8
- DB 102,69,15,112,226,78 ; pshufd $0x4e,%xmm10,%xmm12
- DB 102,69,15,56,48,242 ; pmovzxbw %xmm10,%xmm14
- DB 102,69,15,111,250 ; movdqa %xmm10,%xmm15
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,127,28,36 ; movdqa %xmm3,(%rsp)
- DB 102,68,15,56,48,234 ; pmovzxbw %xmm2,%xmm13
- DB 102,68,15,252,210 ; paddb %xmm2,%xmm10
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,56,0,244 ; pshufb %xmm4,%xmm6
- DB 102,65,15,56,48,236 ; pmovzxbw %xmm12,%xmm5
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,112,254,78 ; pshufd $0x4e,%xmm6,%xmm7
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,253,253 ; paddw %xmm5,%xmm7
- DB 102,68,15,56,48,225 ; pmovzxbw %xmm1,%xmm12
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,65,15,213,246 ; pmullw %xmm14,%xmm6
- DB 102,65,15,253,246 ; paddw %xmm14,%xmm6
- DB 102,65,15,112,216,78 ; pshufd $0x4e,%xmm8,%xmm3
- DB 102,15,56,48,219 ; pmovzxbw %xmm3,%xmm3
- DB 102,15,213,216 ; pmullw %xmm0,%xmm3
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,252,201 ; paddb %xmm9,%xmm1
- DB 102,65,15,56,48,232 ; pmovzxbw %xmm8,%xmm5
- DB 102,65,15,213,236 ; pmullw %xmm12,%xmm5
- DB 102,65,15,253,236 ; paddw %xmm12,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,103,235 ; packuswb %xmm3,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,247 ; packuswb %xmm7,%xmm6
- DB 102,15,56,0,196 ; pshufb %xmm4,%xmm0
- DB 102,68,15,56,0,252 ; pshufb %xmm4,%xmm15
- DB 102,68,15,56,48,36,36 ; pmovzxbw (%rsp),%xmm12
- DB 102,68,15,56,48,68,36,16 ; pmovzxbw 0x10(%rsp),%xmm8
- DB 102,65,15,112,231,78 ; pshufd $0x4e,%xmm15,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,65,15,56,48,255 ; pmovzxbw %xmm15,%xmm7
- DB 102,15,112,216,78 ; pshufd $0x4e,%xmm0,%xmm3
- DB 102,15,56,48,219 ; pmovzxbw %xmm3,%xmm3
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,65,15,213,195 ; pmullw %xmm11,%xmm0
- DB 102,65,15,213,216 ; pmullw %xmm8,%xmm3
- DB 102,65,15,213,253 ; pmullw %xmm13,%xmm7
- DB 102,65,15,213,228 ; pmullw %xmm12,%xmm4
- DB 102,65,15,253,228 ; paddw %xmm12,%xmm4
- DB 102,65,15,253,253 ; paddw %xmm13,%xmm7
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,65,15,253,195 ; paddw %xmm11,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,103,195 ; packuswb %xmm3,%xmm0
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,222,247 ; pmaxub %xmm7,%xmm6
- DB 102,15,222,232 ; pmaxub %xmm0,%xmm5
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,248,221 ; psubb %xmm5,%xmm3
- DB 102,65,15,111,226 ; movdqa %xmm10,%xmm4
- DB 102,15,248,230 ; psubb %xmm6,%xmm4
- DB 102,15,248,200 ; psubb %xmm0,%xmm1
- DB 102,68,15,248,215 ; psubb %xmm7,%xmm10
- DB 15,40,5,250,192,0,0 ; movaps 0xc0fa(%rip),%xmm0 # 34aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x166c>
- DB 102,68,15,56,16,212 ; pblendvb %xmm0,%xmm4,%xmm10
- DB 102,15,56,16,203 ; pblendvb %xmm0,%xmm3,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lighten_sse41_8bit
-_sk_lighten_sse41_8bit LABEL PROC
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,68,15,111,208 ; movdqa %xmm0,%xmm10
- DB 102,15,111,37,247,191,0,0 ; movdqa 0xbff7(%rip),%xmm4 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,65,15,112,217,78 ; pshufd $0x4e,%xmm9,%xmm3
- DB 102,15,127,92,36,16 ; movdqa %xmm3,0x10(%rsp)
- DB 102,69,15,56,48,217 ; pmovzxbw %xmm9,%xmm11
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,56,0,196 ; pshufb %xmm4,%xmm8
- DB 102,69,15,112,226,78 ; pshufd $0x4e,%xmm10,%xmm12
- DB 102,69,15,56,48,242 ; pmovzxbw %xmm10,%xmm14
- DB 102,69,15,111,250 ; movdqa %xmm10,%xmm15
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,127,28,36 ; movdqa %xmm3,(%rsp)
- DB 102,68,15,56,48,234 ; pmovzxbw %xmm2,%xmm13
- DB 102,68,15,252,210 ; paddb %xmm2,%xmm10
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,56,0,244 ; pshufb %xmm4,%xmm6
- DB 102,65,15,56,48,236 ; pmovzxbw %xmm12,%xmm5
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,112,254,78 ; pshufd $0x4e,%xmm6,%xmm7
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,253,253 ; paddw %xmm5,%xmm7
- DB 102,68,15,56,48,225 ; pmovzxbw %xmm1,%xmm12
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,65,15,213,246 ; pmullw %xmm14,%xmm6
- DB 102,65,15,253,246 ; paddw %xmm14,%xmm6
- DB 102,65,15,112,216,78 ; pshufd $0x4e,%xmm8,%xmm3
- DB 102,15,56,48,219 ; pmovzxbw %xmm3,%xmm3
- DB 102,15,213,216 ; pmullw %xmm0,%xmm3
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,252,201 ; paddb %xmm9,%xmm1
- DB 102,65,15,56,48,232 ; pmovzxbw %xmm8,%xmm5
- DB 102,65,15,213,236 ; pmullw %xmm12,%xmm5
- DB 102,65,15,253,236 ; paddw %xmm12,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,103,235 ; packuswb %xmm3,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,247 ; packuswb %xmm7,%xmm6
- DB 102,15,56,0,196 ; pshufb %xmm4,%xmm0
- DB 102,68,15,56,0,252 ; pshufb %xmm4,%xmm15
- DB 102,68,15,56,48,36,36 ; pmovzxbw (%rsp),%xmm12
- DB 102,68,15,56,48,68,36,16 ; pmovzxbw 0x10(%rsp),%xmm8
- DB 102,65,15,112,231,78 ; pshufd $0x4e,%xmm15,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,65,15,56,48,255 ; pmovzxbw %xmm15,%xmm7
- DB 102,15,112,216,78 ; pshufd $0x4e,%xmm0,%xmm3
- DB 102,15,56,48,219 ; pmovzxbw %xmm3,%xmm3
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,65,15,213,195 ; pmullw %xmm11,%xmm0
- DB 102,65,15,213,216 ; pmullw %xmm8,%xmm3
- DB 102,65,15,213,253 ; pmullw %xmm13,%xmm7
- DB 102,65,15,213,228 ; pmullw %xmm12,%xmm4
- DB 102,65,15,253,228 ; paddw %xmm12,%xmm4
- DB 102,65,15,253,253 ; paddw %xmm13,%xmm7
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,65,15,253,195 ; paddw %xmm11,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,103,195 ; packuswb %xmm3,%xmm0
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,218,247 ; pminub %xmm7,%xmm6
- DB 102,15,218,232 ; pminub %xmm0,%xmm5
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,248,221 ; psubb %xmm5,%xmm3
- DB 102,65,15,111,226 ; movdqa %xmm10,%xmm4
- DB 102,15,248,230 ; psubb %xmm6,%xmm4
- DB 102,15,248,200 ; psubb %xmm0,%xmm1
- DB 102,68,15,248,215 ; psubb %xmm7,%xmm10
- DB 15,40,5,85,191,0,0 ; movaps 0xbf55(%rip),%xmm0 # 34aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x166c>
- DB 102,68,15,56,16,212 ; pblendvb %xmm0,%xmm4,%xmm10
- DB 102,15,56,16,203 ; pblendvb %xmm0,%xmm3,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_exclusion_sse41_8bit
-_sk_exclusion_sse41_8bit LABEL PROC
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,68,15,56,48,220 ; pmovzxbw %xmm4,%xmm11
- DB 102,68,15,56,48,208 ; pmovzxbw %xmm0,%xmm10
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,68,15,56,48,196 ; pmovzxbw %xmm4,%xmm8
- DB 102,68,15,56,48,201 ; pmovzxbw %xmm1,%xmm9
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,15,56,48,252 ; pmovzxbw %xmm4,%xmm7
- DB 102,15,56,48,226 ; pmovzxbw %xmm2,%xmm4
- DB 102,15,112,235,78 ; pshufd $0x4e,%xmm3,%xmm5
- DB 102,15,56,48,245 ; pmovzxbw %xmm5,%xmm6
- DB 102,15,56,48,235 ; pmovzxbw %xmm3,%xmm5
- DB 102,65,15,213,233 ; pmullw %xmm9,%xmm5
- DB 102,65,15,213,240 ; pmullw %xmm8,%xmm6
- DB 102,65,15,213,226 ; pmullw %xmm10,%xmm4
- DB 102,65,15,213,251 ; pmullw %xmm11,%xmm7
- DB 102,65,15,253,251 ; paddw %xmm11,%xmm7
- DB 102,65,15,253,226 ; paddw %xmm10,%xmm4
- DB 102,65,15,253,240 ; paddw %xmm8,%xmm6
- DB 102,65,15,253,233 ; paddw %xmm9,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,231 ; packuswb %xmm7,%xmm4
- DB 102,15,111,53,172,190,0,0 ; movdqa 0xbeac(%rip),%xmm6 # 34aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x166c>
- DB 102,15,252,203 ; paddb %xmm3,%xmm1
- DB 102,15,248,205 ; psubb %xmm5,%xmm1
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,248,205 ; psubb %xmm5,%xmm1
- DB 102,15,248,196 ; psubb %xmm4,%xmm0
- DB 102,15,248,198 ; psubb %xmm6,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_difference_sse41_8bit
-_sk_difference_sse41_8bit LABEL PROC
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,68,15,111,21,166,189,0,0 ; movdqa 0xbda6(%rip),%xmm10 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,65,15,112,225,78 ; pshufd $0x4e,%xmm9,%xmm4
- DB 102,15,127,100,36,16 ; movdqa %xmm4,0x10(%rsp)
- DB 102,69,15,56,48,217 ; pmovzxbw %xmm9,%xmm11
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
- DB 102,68,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm12
- DB 102,68,15,56,48,240 ; pmovzxbw %xmm0,%xmm14
- DB 102,68,15,111,248 ; movdqa %xmm0,%xmm15
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,15,127,36,36 ; movdqa %xmm4,(%rsp)
- DB 102,68,15,56,48,234 ; pmovzxbw %xmm2,%xmm13
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,65,15,56,0,242 ; pshufb %xmm10,%xmm6
- DB 102,65,15,56,48,236 ; pmovzxbw %xmm12,%xmm5
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,15,112,254,78 ; pshufd $0x4e,%xmm6,%xmm7
- DB 102,15,56,48,255 ; pmovzxbw %xmm7,%xmm7
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,253,253 ; paddw %xmm5,%xmm7
- DB 102,68,15,56,48,225 ; pmovzxbw %xmm1,%xmm12
- DB 102,15,56,48,246 ; pmovzxbw %xmm6,%xmm6
- DB 102,65,15,213,246 ; pmullw %xmm14,%xmm6
- DB 102,65,15,253,246 ; paddw %xmm14,%xmm6
- DB 102,65,15,112,216,78 ; pshufd $0x4e,%xmm8,%xmm3
- DB 102,15,56,48,219 ; pmovzxbw %xmm3,%xmm3
- DB 102,15,213,220 ; pmullw %xmm4,%xmm3
- DB 102,15,253,220 ; paddw %xmm4,%xmm3
- DB 102,68,15,111,241 ; movdqa %xmm1,%xmm14
- DB 102,65,15,252,201 ; paddb %xmm9,%xmm1
- DB 102,65,15,56,48,232 ; pmovzxbw %xmm8,%xmm5
- DB 102,65,15,213,236 ; pmullw %xmm12,%xmm5
- DB 102,65,15,253,236 ; paddw %xmm12,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,103,235 ; packuswb %xmm3,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,247 ; packuswb %xmm7,%xmm6
- DB 102,69,15,56,0,242 ; pshufb %xmm10,%xmm14
- DB 102,69,15,56,0,250 ; pshufb %xmm10,%xmm15
- DB 102,68,15,56,48,20,36 ; pmovzxbw (%rsp),%xmm10
- DB 102,68,15,56,48,68,36,16 ; pmovzxbw 0x10(%rsp),%xmm8
- DB 102,65,15,112,255,78 ; pshufd $0x4e,%xmm15,%xmm7
- DB 102,68,15,56,48,231 ; pmovzxbw %xmm7,%xmm12
- DB 102,65,15,56,48,223 ; pmovzxbw %xmm15,%xmm3
- DB 102,65,15,112,230,78 ; pshufd $0x4e,%xmm14,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,65,15,56,48,254 ; pmovzxbw %xmm14,%xmm7
- DB 102,65,15,213,251 ; pmullw %xmm11,%xmm7
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,65,15,213,221 ; pmullw %xmm13,%xmm3
- DB 102,69,15,213,226 ; pmullw %xmm10,%xmm12
- DB 102,69,15,253,226 ; paddw %xmm10,%xmm12
- DB 102,65,15,253,221 ; paddw %xmm13,%xmm3
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,65,15,253,251 ; paddw %xmm11,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,218,253 ; pminub %xmm5,%xmm7
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,65,15,103,220 ; packuswb %xmm12,%xmm3
- DB 102,15,218,222 ; pminub %xmm6,%xmm3
- DB 102,15,111,37,22,189,0,0 ; movdqa 0xbd16(%rip),%xmm4 # 34aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x166c>
- DB 102,15,248,207 ; psubb %xmm7,%xmm1
- DB 102,15,219,252 ; pand %xmm4,%xmm7
- DB 102,15,219,227 ; pand %xmm3,%xmm4
- DB 102,15,248,207 ; psubb %xmm7,%xmm1
- DB 102,15,248,195 ; psubb %xmm3,%xmm0
- DB 102,15,248,196 ; psubb %xmm4,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hardlight_sse41_8bit
-_sk_hardlight_sse41_8bit LABEL PROC
- DB 72,129,236,152,0,0,0 ; sub $0x98,%rsp
- DB 102,68,15,111,233 ; movdqa %xmm1,%xmm13
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,56,48,201 ; pmovzxbw %xmm1,%xmm1
- DB 102,15,56,48,248 ; pmovzxbw %xmm0,%xmm7
- DB 102,68,15,111,37,253,187,0,0 ; movdqa 0xbbfd(%rip),%xmm12 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,65,15,56,0,196 ; pshufb %xmm12,%xmm0
- DB 102,15,56,48,240 ; pmovzxbw %xmm0,%xmm6
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,15,56,48,224 ; pmovzxbw %xmm0,%xmm4
- DB 102,15,127,148,36,128,0,0,0 ; movdqa %xmm2,0x80(%rsp)
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,68,15,56,48,200 ; pmovzxbw %xmm0,%xmm9
- DB 102,68,15,56,48,210 ; pmovzxbw %xmm2,%xmm10
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,65,15,56,0,196 ; pshufb %xmm12,%xmm0
- DB 102,68,15,56,48,240 ; pmovzxbw %xmm0,%xmm14
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,15,56,48,232 ; pmovzxbw %xmm0,%xmm5
- DB 102,15,127,108,36,16 ; movdqa %xmm5,0x10(%rsp)
- DB 102,68,15,111,252 ; movdqa %xmm4,%xmm15
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,127,84,36,96 ; movdqa %xmm2,0x60(%rsp)
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,101,196 ; pcmpgtw %xmm4,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,68,15,127,76,36,112 ; movdqa %xmm9,0x70(%rsp)
- DB 102,65,15,249,233 ; psubw %xmm9,%xmm5
- DB 102,15,249,226 ; psubw %xmm2,%xmm4
- DB 102,15,213,229 ; pmullw %xmm5,%xmm4
- DB 102,68,15,127,52,36 ; movdqa %xmm14,(%rsp)
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,249,204 ; psubw %xmm4,%xmm1
- DB 102,68,15,213,202 ; pmullw %xmm2,%xmm9
- DB 102,69,15,253,201 ; paddw %xmm9,%xmm9
- DB 102,68,15,56,16,201 ; pblendvb %xmm0,%xmm1,%xmm9
- DB 102,15,127,124,36,80 ; movdqa %xmm7,0x50(%rsp)
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,101,198 ; pcmpgtw %xmm6,%xmm0
- DB 102,65,15,111,206 ; movdqa %xmm14,%xmm1
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,68,15,127,84,36,64 ; movdqa %xmm10,0x40(%rsp)
- DB 102,69,15,249,242 ; psubw %xmm10,%xmm14
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,15,249,247 ; psubw %xmm7,%xmm6
- DB 102,65,15,213,246 ; pmullw %xmm14,%xmm6
- DB 102,15,253,246 ; paddw %xmm6,%xmm6
- DB 102,15,249,206 ; psubw %xmm6,%xmm1
- DB 102,69,15,111,242 ; movdqa %xmm10,%xmm14
- DB 102,68,15,213,247 ; pmullw %xmm7,%xmm14
- DB 102,69,15,253,246 ; paddw %xmm14,%xmm14
- DB 102,68,15,56,16,241 ; pblendvb %xmm0,%xmm1,%xmm14
- DB 102,65,15,112,197,78 ; pshufd $0x4e,%xmm13,%xmm0
- DB 102,69,15,56,48,221 ; pmovzxbw %xmm13,%xmm11
- DB 102,69,15,56,0,236 ; pshufb %xmm12,%xmm13
- DB 102,15,127,92,36,32 ; movdqa %xmm3,0x20(%rsp)
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,65,15,56,0,236 ; pshufb %xmm12,%xmm5
- DB 102,68,15,56,48,208 ; pmovzxbw %xmm0,%xmm10
- DB 102,65,15,112,197,78 ; pshufd $0x4e,%xmm13,%xmm0
- DB 102,15,56,48,240 ; pmovzxbw %xmm0,%xmm6
- DB 102,15,112,195,78 ; pshufd $0x4e,%xmm3,%xmm0
- DB 102,68,15,56,48,224 ; pmovzxbw %xmm0,%xmm12
- DB 102,68,15,127,100,36,48 ; movdqa %xmm12,0x30(%rsp)
- DB 102,15,112,197,78 ; pshufd $0x4e,%xmm5,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,65,15,111,218 ; movdqa %xmm10,%xmm3
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,15,101,222 ; pcmpgtw %xmm6,%xmm3
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,65,15,249,196 ; psubw %xmm12,%xmm0
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,65,15,249,242 ; psubw %xmm10,%xmm6
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,15,253,246 ; paddw %xmm6,%xmm6
- DB 102,15,249,206 ; psubw %xmm6,%xmm1
- DB 102,69,15,213,226 ; pmullw %xmm10,%xmm12
- DB 102,69,15,253,228 ; paddw %xmm12,%xmm12
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,68,15,56,16,225 ; pblendvb %xmm0,%xmm1,%xmm12
- DB 102,65,15,56,48,221 ; pmovzxbw %xmm13,%xmm3
- DB 102,68,15,56,48,237 ; pmovzxbw %xmm5,%xmm13
- DB 102,15,111,13,237,178,0,0 ; movdqa 0xb2ed(%rip),%xmm1 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,111,68,36,16 ; movdqa 0x10(%rsp),%xmm0
- DB 102,15,239,193 ; pxor %xmm1,%xmm0
- DB 102,15,127,68,36,16 ; movdqa %xmm0,0x10(%rsp)
- DB 102,15,111,4,36 ; movdqa (%rsp),%xmm0
- DB 102,15,239,193 ; pxor %xmm1,%xmm0
- DB 102,15,127,4,36 ; movdqa %xmm0,(%rsp)
- DB 102,68,15,239,193 ; pxor %xmm1,%xmm8
- DB 102,65,15,111,245 ; movdqa %xmm13,%xmm6
- DB 102,15,239,241 ; pxor %xmm1,%xmm6
- DB 102,68,15,239,249 ; pxor %xmm1,%xmm15
- DB 102,15,239,225 ; pxor %xmm1,%xmm4
- DB 102,15,239,209 ; pxor %xmm1,%xmm2
- DB 102,15,239,203 ; pxor %xmm3,%xmm1
- DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,101,195 ; pcmpgtw %xmm3,%xmm0
- DB 102,65,15,111,237 ; movdqa %xmm13,%xmm5
- DB 102,15,213,235 ; pmullw %xmm3,%xmm5
- DB 102,15,56,48,124,36,32 ; pmovzxbw 0x20(%rsp),%xmm7
- DB 102,68,15,249,239 ; psubw %xmm7,%xmm13
- DB 102,65,15,249,219 ; psubw %xmm11,%xmm3
- DB 102,65,15,213,221 ; pmullw %xmm13,%xmm3
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,15,249,235 ; psubw %xmm3,%xmm5
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 102,65,15,213,219 ; pmullw %xmm11,%xmm3
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,15,56,16,221 ; pblendvb %xmm0,%xmm5,%xmm3
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,15,213,84,36,48 ; pmullw 0x30(%rsp),%xmm2
- DB 102,15,213,100,36,64 ; pmullw 0x40(%rsp),%xmm4
- DB 102,68,15,213,124,36,112 ; pmullw 0x70(%rsp),%xmm15
- DB 102,65,15,213,243 ; pmullw %xmm11,%xmm6
- DB 102,69,15,213,194 ; pmullw %xmm10,%xmm8
- DB 102,15,111,44,36 ; movdqa (%rsp),%xmm5
- DB 102,15,213,108,36,80 ; pmullw 0x50(%rsp),%xmm5
- DB 102,15,111,68,36,16 ; movdqa 0x10(%rsp),%xmm0
- DB 102,15,213,68,36,96 ; pmullw 0x60(%rsp),%xmm0
- DB 102,15,253,206 ; paddw %xmm6,%xmm1
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,253,229 ; paddw %xmm5,%xmm4
- DB 102,68,15,253,248 ; paddw %xmm0,%xmm15
- DB 102,15,111,5,104,186,0,0 ; movdqa 0xba68(%rip),%xmm0 # 34ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x167c>
- DB 102,68,15,253,248 ; paddw %xmm0,%xmm15
- DB 102,69,15,253,249 ; paddw %xmm9,%xmm15
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,65,15,253,230 ; paddw %xmm14,%xmm4
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,65,15,253,212 ; paddw %xmm12,%xmm2
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,111,5,76,186,0,0 ; movdqa 0xba4c(%rip),%xmm0 # 34ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x168c>
- DB 102,15,228,200 ; pmulhuw %xmm0,%xmm1
- DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,15,228,208 ; pmulhuw %xmm0,%xmm2
- DB 102,15,113,210,7 ; psrlw $0x7,%xmm2
- DB 102,15,103,202 ; packuswb %xmm2,%xmm1
- DB 102,15,228,224 ; pmulhuw %xmm0,%xmm4
- DB 102,68,15,228,248 ; pmulhuw %xmm0,%xmm15
- DB 102,15,113,212,7 ; psrlw $0x7,%xmm4
- DB 102,65,15,113,215,7 ; psrlw $0x7,%xmm15
- DB 102,65,15,103,231 ; packuswb %xmm15,%xmm4
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,148,36,128,0,0,0 ; movaps 0x80(%rsp),%xmm2
- DB 15,40,92,36,32 ; movaps 0x20(%rsp),%xmm3
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 72,129,196,152,0,0,0 ; add $0x98,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_overlay_sse41_8bit
-_sk_overlay_sse41_8bit LABEL PROC
- DB 72,129,236,168,0,0,0 ; sub $0xa8,%rsp
- DB 102,68,15,111,211 ; movdqa %xmm3,%xmm10
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,56,48,244 ; pmovzxbw %xmm4,%xmm6
- DB 102,68,15,56,48,192 ; pmovzxbw %xmm0,%xmm8
- DB 102,68,15,111,45,236,184,0,0 ; movdqa 0xb8ec(%rip),%xmm13 # 349d0 <_sk_srcover_rgba_8888_sse2_lowp+0x159c>
- DB 102,65,15,56,0,197 ; pshufb %xmm13,%xmm0
- DB 102,68,15,56,48,248 ; pmovzxbw %xmm0,%xmm15
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,15,56,48,224 ; pmovzxbw %xmm0,%xmm4
- DB 102,15,127,148,36,144,0,0,0 ; movdqa %xmm2,0x90(%rsp)
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,68,15,56,48,224 ; pmovzxbw %xmm0,%xmm12
- DB 102,68,15,56,48,202 ; pmovzxbw %xmm2,%xmm9
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,65,15,56,0,197 ; pshufb %xmm13,%xmm0
- DB 102,68,15,56,48,216 ; pmovzxbw %xmm0,%xmm11
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,15,56,48,232 ; pmovzxbw %xmm0,%xmm5
- DB 102,15,127,108,36,16 ; movdqa %xmm5,0x10(%rsp)
- DB 102,68,15,111,244 ; movdqa %xmm4,%xmm14
- DB 102,65,15,111,196 ; movdqa %xmm12,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,101,197 ; pcmpgtw %xmm5,%xmm0
- DB 102,15,111,253 ; movdqa %xmm5,%xmm7
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,65,15,249,236 ; psubw %xmm12,%xmm5
- DB 102,68,15,127,164,36,128,0,0,0 ; movdqa %xmm12,0x80(%rsp)
- DB 102,15,127,116,36,112 ; movdqa %xmm6,0x70(%rsp)
- DB 102,15,249,230 ; psubw %xmm6,%xmm4
- DB 102,15,213,229 ; pmullw %xmm5,%xmm4
- DB 102,68,15,127,28,36 ; movdqa %xmm11,(%rsp)
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,249,252 ; psubw %xmm4,%xmm7
- DB 102,68,15,213,230 ; pmullw %xmm6,%xmm12
- DB 102,69,15,253,228 ; paddw %xmm12,%xmm12
- DB 102,68,15,56,16,231 ; pblendvb %xmm0,%xmm7,%xmm12
- DB 102,68,15,127,76,36,64 ; movdqa %xmm9,0x40(%rsp)
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,65,15,101,195 ; pcmpgtw %xmm11,%xmm0
- DB 102,65,15,111,251 ; movdqa %xmm11,%xmm7
- DB 102,65,15,213,255 ; pmullw %xmm15,%xmm7
- DB 102,69,15,249,217 ; psubw %xmm9,%xmm11
- DB 102,65,15,111,247 ; movdqa %xmm15,%xmm6
- DB 102,68,15,127,68,36,80 ; movdqa %xmm8,0x50(%rsp)
- DB 102,69,15,249,248 ; psubw %xmm8,%xmm15
- DB 102,69,15,213,251 ; pmullw %xmm11,%xmm15
- DB 102,69,15,253,255 ; paddw %xmm15,%xmm15
- DB 102,65,15,249,255 ; psubw %xmm15,%xmm7
- DB 102,69,15,111,249 ; movdqa %xmm9,%xmm15
- DB 102,69,15,213,248 ; pmullw %xmm8,%xmm15
- DB 102,69,15,253,255 ; paddw %xmm15,%xmm15
- DB 102,68,15,56,16,255 ; pblendvb %xmm0,%xmm7,%xmm15
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,56,48,209 ; pmovzxbw %xmm1,%xmm2
- DB 102,15,127,84,36,48 ; movdqa %xmm2,0x30(%rsp)
- DB 102,65,15,56,0,205 ; pshufb %xmm13,%xmm1
- DB 102,65,15,111,234 ; movdqa %xmm10,%xmm5
- DB 102,65,15,56,0,237 ; pshufb %xmm13,%xmm5
- DB 102,15,56,48,224 ; pmovzxbw %xmm0,%xmm4
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,68,15,111,233 ; movdqa %xmm1,%xmm13
- DB 102,15,56,48,248 ; pmovzxbw %xmm0,%xmm7
- DB 102,65,15,112,194,78 ; pshufd $0x4e,%xmm10,%xmm0
- DB 102,68,15,127,84,36,96 ; movdqa %xmm10,0x60(%rsp)
- DB 102,68,15,56,48,216 ; pmovzxbw %xmm0,%xmm11
- DB 102,15,112,197,78 ; pshufd $0x4e,%xmm5,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,65,15,111,219 ; movdqa %xmm11,%xmm3
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,15,101,216 ; pcmpgtw %xmm0,%xmm3
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,65,15,249,195 ; psubw %xmm11,%xmm0
- DB 102,15,111,215 ; movdqa %xmm7,%xmm2
- DB 102,15,249,252 ; psubw %xmm4,%xmm7
- DB 102,15,127,100,36,32 ; movdqa %xmm4,0x20(%rsp)
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,15,253,255 ; paddw %xmm7,%xmm7
- DB 102,15,249,207 ; psubw %xmm7,%xmm1
- DB 102,69,15,111,203 ; movdqa %xmm11,%xmm9
- DB 102,68,15,213,204 ; pmullw %xmm4,%xmm9
- DB 102,69,15,253,201 ; paddw %xmm9,%xmm9
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,68,15,56,16,201 ; pblendvb %xmm0,%xmm1,%xmm9
- DB 102,65,15,56,48,221 ; pmovzxbw %xmm13,%xmm3
- DB 102,15,56,48,237 ; pmovzxbw %xmm5,%xmm5
- DB 102,15,111,13,199,175,0,0 ; movdqa 0xafc7(%rip),%xmm1 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,111,68,36,16 ; movdqa 0x10(%rsp),%xmm0
- DB 102,15,239,193 ; pxor %xmm1,%xmm0
- DB 102,15,127,68,36,16 ; movdqa %xmm0,0x10(%rsp)
- DB 102,15,111,4,36 ; movdqa (%rsp),%xmm0
- DB 102,15,239,193 ; pxor %xmm1,%xmm0
- DB 102,15,127,4,36 ; movdqa %xmm0,(%rsp)
- DB 102,68,15,239,193 ; pxor %xmm1,%xmm8
- DB 102,68,15,111,237 ; movdqa %xmm5,%xmm13
- DB 102,68,15,239,233 ; pxor %xmm1,%xmm13
- DB 102,68,15,239,241 ; pxor %xmm1,%xmm14
- DB 102,15,239,241 ; pxor %xmm1,%xmm6
- DB 102,15,239,209 ; pxor %xmm1,%xmm2
- DB 102,15,239,203 ; pxor %xmm3,%xmm1
- DB 102,65,15,56,48,250 ; pmovzxbw %xmm10,%xmm7
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,101,197 ; pcmpgtw %xmm5,%xmm0
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,213,227 ; pmullw %xmm3,%xmm4
- DB 102,15,249,239 ; psubw %xmm7,%xmm5
- DB 102,68,15,111,84,36,48 ; movdqa 0x30(%rsp),%xmm10
- DB 102,65,15,249,218 ; psubw %xmm10,%xmm3
- DB 102,15,213,221 ; pmullw %xmm5,%xmm3
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,15,249,227 ; psubw %xmm3,%xmm4
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 102,65,15,213,218 ; pmullw %xmm10,%xmm3
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,15,56,16,220 ; pblendvb %xmm0,%xmm4,%xmm3
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,65,15,213,211 ; pmullw %xmm11,%xmm2
- DB 102,15,213,116,36,64 ; pmullw 0x40(%rsp),%xmm6
- DB 102,68,15,213,180,36,128,0,0,0 ; pmullw 0x80(%rsp),%xmm14
- DB 102,69,15,213,234 ; pmullw %xmm10,%xmm13
- DB 102,68,15,213,68,36,32 ; pmullw 0x20(%rsp),%xmm8
- DB 102,15,111,36,36 ; movdqa (%rsp),%xmm4
- DB 102,15,213,100,36,80 ; pmullw 0x50(%rsp),%xmm4
- DB 102,15,111,68,36,16 ; movdqa 0x10(%rsp),%xmm0
- DB 102,15,213,68,36,112 ; pmullw 0x70(%rsp),%xmm0
- DB 102,65,15,253,205 ; paddw %xmm13,%xmm1
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,253,244 ; paddw %xmm4,%xmm6
- DB 102,68,15,253,240 ; paddw %xmm0,%xmm14
- DB 102,15,111,5,58,183,0,0 ; movdqa 0xb73a(%rip),%xmm0 # 34ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x167c>
- DB 102,68,15,253,240 ; paddw %xmm0,%xmm14
- DB 102,69,15,253,244 ; paddw %xmm12,%xmm14
- DB 102,15,253,240 ; paddw %xmm0,%xmm6
- DB 102,65,15,253,247 ; paddw %xmm15,%xmm6
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,111,5,30,183,0,0 ; movdqa 0xb71e(%rip),%xmm0 # 34ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x168c>
- DB 102,15,228,200 ; pmulhuw %xmm0,%xmm1
- DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,15,228,208 ; pmulhuw %xmm0,%xmm2
- DB 102,15,113,210,7 ; psrlw $0x7,%xmm2
- DB 102,15,103,202 ; packuswb %xmm2,%xmm1
- DB 102,15,228,240 ; pmulhuw %xmm0,%xmm6
- DB 102,68,15,228,240 ; pmulhuw %xmm0,%xmm14
- DB 102,15,113,214,7 ; psrlw $0x7,%xmm6
- DB 102,65,15,113,214,7 ; psrlw $0x7,%xmm14
- DB 102,65,15,103,246 ; packuswb %xmm14,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,148,36,144,0,0,0 ; movaps 0x90(%rsp),%xmm2
- DB 15,40,92,36,96 ; movaps 0x60(%rsp),%xmm3
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 72,129,196,168,0,0,0 ; add $0xa8,%rsp
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 144 ; nop
- DB 144 ; nop
-
-PUBLIC _sk_start_pipeline_sse2_8bit
-_sk_start_pipeline_sse2_8bit LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 86 ; push %rsi
- DB 87 ; push %rdi
- DB 83 ; push %rbx
- DB 72,129,236,200,0,0,0 ; sub $0xc8,%rsp
- DB 68,15,41,125,176 ; movaps %xmm15,-0x50(%rbp)
- DB 68,15,41,117,160 ; movaps %xmm14,-0x60(%rbp)
- DB 68,15,41,109,144 ; movaps %xmm13,-0x70(%rbp)
- DB 68,15,41,101,128 ; movaps %xmm12,-0x80(%rbp)
- DB 68,15,41,157,112,255,255,255 ; movaps %xmm11,-0x90(%rbp)
- DB 68,15,41,149,96,255,255,255 ; movaps %xmm10,-0xa0(%rbp)
- DB 68,15,41,141,80,255,255,255 ; movaps %xmm9,-0xb0(%rbp)
- DB 68,15,41,133,64,255,255,255 ; movaps %xmm8,-0xc0(%rbp)
- DB 15,41,189,48,255,255,255 ; movaps %xmm7,-0xd0(%rbp)
- DB 15,41,181,32,255,255,255 ; movaps %xmm6,-0xe0(%rbp)
- DB 77,137,199 ; mov %r8,%r15
- DB 72,137,211 ; mov %rdx,%rbx
- DB 72,137,141,24,255,255,255 ; mov %rcx,-0xe8(%rbp)
- DB 72,139,117,48 ; mov 0x30(%rbp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 73,137,197 ; mov %rax,%r13
- DB 73,137,246 ; mov %rsi,%r14
- DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
- DB 76,57,203 ; cmp %r9,%rbx
- DB 115,101 ; jae 294d2 <_sk_start_pipeline_sse2_8bit+0xe2>
- DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
- DB 72,141,64,8 ; lea 0x8(%rax),%rax
- DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
- DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 119,38 ; ja 294b5 <_sk_start_pipeline_sse2_8bit+0xc5>
- DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
- DB 49,255 ; xor %edi,%edi
- DB 76,137,246 ; mov %r14,%rsi
- DB 76,137,226 ; mov %r12,%rdx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 73,141,84,36,8 ; lea 0x8(%r12),%rdx
- DB 73,131,196,16 ; add $0x10,%r12
- DB 77,57,252 ; cmp %r15,%r12
- DB 73,137,212 ; mov %rdx,%r12
- DB 118,225 ; jbe 29496 <_sk_start_pipeline_sse2_8bit+0xa6>
- DB 76,137,255 ; mov %r15,%rdi
- DB 72,41,215 ; sub %rdx,%rdi
- DB 116,9 ; je 294c6 <_sk_start_pipeline_sse2_8bit+0xd6>
- DB 76,137,246 ; mov %r14,%rsi
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 72,255,195 ; inc %rbx
- DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 117,173 ; jne 2947f <_sk_start_pipeline_sse2_8bit+0x8f>
- DB 15,40,181,32,255,255,255 ; movaps -0xe0(%rbp),%xmm6
- DB 15,40,189,48,255,255,255 ; movaps -0xd0(%rbp),%xmm7
- DB 68,15,40,133,64,255,255,255 ; movaps -0xc0(%rbp),%xmm8
- DB 68,15,40,141,80,255,255,255 ; movaps -0xb0(%rbp),%xmm9
- DB 68,15,40,149,96,255,255,255 ; movaps -0xa0(%rbp),%xmm10
- DB 68,15,40,157,112,255,255,255 ; movaps -0x90(%rbp),%xmm11
- DB 68,15,40,101,128 ; movaps -0x80(%rbp),%xmm12
- DB 68,15,40,109,144 ; movaps -0x70(%rbp),%xmm13
- DB 68,15,40,117,160 ; movaps -0x60(%rbp),%xmm14
- DB 68,15,40,125,176 ; movaps -0x50(%rbp),%xmm15
- DB 72,129,196,200,0,0,0 ; add $0xc8,%rsp
- DB 91 ; pop %rbx
- DB 95 ; pop %rdi
- DB 94 ; pop %rsi
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 195 ; retq
-
-PUBLIC _sk_just_return_sse2_8bit
-_sk_just_return_sse2_8bit LABEL PROC
- DB 195 ; retq
-
-PUBLIC _sk_uniform_color_sse2_8bit
-_sk_uniform_color_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,110,64,16 ; movd 0x10(%rax),%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_set_rgb_sse2_8bit
-_sk_set_rgb_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,37,141,171,0,0 ; movss 0xab8d(%rip),%xmm4 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 243,15,16,40 ; movss (%rax),%xmm5
- DB 243,15,89,236 ; mulss %xmm4,%xmm5
- DB 243,76,15,44,197 ; cvttss2si %xmm5,%r8
- DB 243,15,16,104,4 ; movss 0x4(%rax),%xmm5
- DB 243,15,89,236 ; mulss %xmm4,%xmm5
- DB 243,76,15,44,205 ; cvttss2si %xmm5,%r9
- DB 65,193,225,8 ; shl $0x8,%r9d
- DB 69,9,193 ; or %r8d,%r9d
- DB 243,15,89,96,8 ; mulss 0x8(%rax),%xmm4
- DB 243,72,15,44,196 ; cvttss2si %xmm4,%rax
- DB 193,224,16 ; shl $0x10,%eax
- DB 68,9,200 ; or %r9d,%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 102,15,111,45,54,180,0,0 ; movdqa 0xb436(%rip),%xmm5 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 102,15,219,205 ; pand %xmm5,%xmm1
- DB 102,15,219,197 ; pand %xmm5,%xmm0
- DB 102,15,235,196 ; por %xmm4,%xmm0
- DB 102,15,235,204 ; por %xmm4,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_sse2_8bit
-_sk_premul_sse2_8bit LABEL PROC
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 242,65,15,112,192,231 ; pshuflw $0xe7,%xmm8,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,240,95 ; pshufhw $0x5f,%xmm0,%xmm6
- DB 242,15,112,193,231 ; pshuflw $0xe7,%xmm1,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,248,95 ; pshufhw $0x5f,%xmm0,%xmm7
- DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,65,15,96,194 ; punpcklbw %xmm10,%xmm0
- DB 102,69,15,104,194 ; punpckhbw %xmm10,%xmm8
- DB 102,68,15,111,217 ; movdqa %xmm1,%xmm11
- DB 102,69,15,96,218 ; punpcklbw %xmm10,%xmm11
- DB 102,65,15,104,202 ; punpckhbw %xmm10,%xmm1
- DB 102,68,15,111,13,182,179,0,0 ; movdqa 0xb3b6(%rip),%xmm9 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 102,65,15,235,249 ; por %xmm9,%xmm7
- DB 102,65,15,235,241 ; por %xmm9,%xmm6
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,65,15,96,234 ; punpcklbw %xmm10,%xmm5
- DB 102,65,15,104,242 ; punpckhbw %xmm10,%xmm6
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,65,15,96,226 ; punpcklbw %xmm10,%xmm4
- DB 102,65,15,104,250 ; punpckhbw %xmm10,%xmm7
- DB 102,15,213,249 ; pmullw %xmm1,%xmm7
- DB 102,65,15,213,227 ; pmullw %xmm11,%xmm4
- DB 102,65,15,213,240 ; pmullw %xmm8,%xmm6
- DB 102,15,213,232 ; pmullw %xmm0,%xmm5
- DB 102,15,253,197 ; paddw %xmm5,%xmm0
- DB 102,65,15,253,240 ; paddw %xmm8,%xmm6
- DB 102,68,15,253,220 ; paddw %xmm4,%xmm11
- DB 102,15,253,249 ; paddw %xmm1,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,68,15,103,223 ; packuswb %xmm7,%xmm11
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,198 ; packuswb %xmm6,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,203 ; movdqa %xmm11,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_swap_rb_sse2_8bit
-_sk_swap_rb_sse2_8bit LABEL PROC
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,196 ; punpcklbw %xmm4,%xmm0
- DB 242,15,112,192,198 ; pshuflw $0xc6,%xmm0,%xmm0
- DB 243,15,112,192,198 ; pshufhw $0xc6,%xmm0,%xmm0
- DB 102,15,103,197 ; packuswb %xmm5,%xmm0
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,204 ; punpcklbw %xmm4,%xmm1
- DB 242,15,112,201,198 ; pshuflw $0xc6,%xmm1,%xmm1
- DB 243,15,112,201,198 ; pshufhw $0xc6,%xmm1,%xmm1
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_invert_sse2_8bit
-_sk_invert_sse2_8bit LABEL PROC
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,239,196 ; pxor %xmm4,%xmm0
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_8888_sse2_8bit
-_sk_load_8888_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,16 ; jne 29707 <_sk_load_8888_sse2_8bit+0x2c>
- DB 102,67,15,16,4,152 ; movupd (%r8,%r11,4),%xmm0
- DB 67,15,16,76,152,16 ; movups 0x10(%r8,%r11,4),%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,228 ; ja 29703 <_sk_load_8888_sse2_8bit+0x28>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,86,0,0,0 ; lea 0x56(%rip),%r10 # 29780 <_sk_load_8888_sse2_8bit+0xa5>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 243,67,15,16,4,152 ; movss (%r8,%r11,4),%xmm0
- DB 235,200 ; jmp 29703 <_sk_load_8888_sse2_8bit+0x28>
- DB 102,67,15,110,68,152,8 ; movd 0x8(%r8,%r11,4),%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 102,67,15,18,4,152 ; movlpd (%r8,%r11,4),%xmm0
- DB 235,180 ; jmp 29703 <_sk_load_8888_sse2_8bit+0x28>
- DB 102,67,15,110,68,152,24 ; movd 0x18(%r8,%r11,4),%xmm0
- DB 102,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm1
- DB 243,67,15,16,68,152,20 ; movss 0x14(%r8,%r11,4),%xmm0
- DB 15,198,193,0 ; shufps $0x0,%xmm1,%xmm0
- DB 15,198,193,226 ; shufps $0xe2,%xmm1,%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 243,67,15,16,68,152,16 ; movss 0x10(%r8,%r11,4),%xmm0
- DB 243,15,16,200 ; movss %xmm0,%xmm1
- DB 102,67,15,16,4,152 ; movupd (%r8,%r11,4),%xmm0
- DB 235,131 ; jmp 29703 <_sk_load_8888_sse2_8bit+0x28>
- DB 179,255 ; mov $0xff,%bl
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 187,255,255,255,248 ; mov $0xf8ffffff,%ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 219,255 ; (bad)
- DB 255 ; (bad)
- DB 255,207 ; dec %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_8888_dst_sse2_8bit
-_sk_load_8888_dst_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,16 ; jne 297c8 <_sk_load_8888_dst_sse2_8bit+0x2c>
- DB 102,67,15,16,20,152 ; movupd (%r8,%r11,4),%xmm2
- DB 67,15,16,92,152,16 ; movups 0x10(%r8,%r11,4),%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,228 ; ja 297c4 <_sk_load_8888_dst_sse2_8bit+0x28>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,89,0,0,0 ; lea 0x59(%rip),%r10 # 29844 <_sk_load_8888_dst_sse2_8bit+0xa8>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 243,67,15,16,20,152 ; movss (%r8,%r11,4),%xmm2
- DB 235,200 ; jmp 297c4 <_sk_load_8888_dst_sse2_8bit+0x28>
- DB 102,67,15,110,84,152,8 ; movd 0x8(%r8,%r11,4),%xmm2
- DB 102,15,112,210,69 ; pshufd $0x45,%xmm2,%xmm2
- DB 102,67,15,18,20,152 ; movlpd (%r8,%r11,4),%xmm2
- DB 235,180 ; jmp 297c4 <_sk_load_8888_dst_sse2_8bit+0x28>
- DB 102,67,15,110,84,152,24 ; movd 0x18(%r8,%r11,4),%xmm2
- DB 102,15,112,218,69 ; pshufd $0x45,%xmm2,%xmm3
- DB 243,67,15,16,84,152,20 ; movss 0x14(%r8,%r11,4),%xmm2
- DB 15,198,211,0 ; shufps $0x0,%xmm3,%xmm2
- DB 15,198,211,226 ; shufps $0xe2,%xmm3,%xmm2
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 243,67,15,16,84,152,16 ; movss 0x10(%r8,%r11,4),%xmm2
- DB 243,15,16,218 ; movss %xmm2,%xmm3
- DB 102,67,15,16,20,152 ; movupd (%r8,%r11,4),%xmm2
- DB 235,131 ; jmp 297c4 <_sk_load_8888_dst_sse2_8bit+0x28>
- DB 15,31,0 ; nopl (%rax)
- DB 176,255 ; mov $0xff,%al
- DB 255 ; (bad)
- DB 255,196 ; inc %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 184,255,255,255,245 ; mov $0xf5ffffff,%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 234 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 216,255 ; fdivr %st(7),%st
- DB 255 ; (bad)
- DB 255,204 ; dec %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_8888_sse2_8bit
-_sk_store_8888_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 2988d <_sk_store_8888_sse2_8bit+0x2d>
- DB 243,67,15,127,4,152 ; movdqu %xmm0,(%r8,%r11,4)
- DB 243,67,15,127,76,152,16 ; movdqu %xmm1,0x10(%r8,%r11,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,236 ; ja 29889 <_sk_store_8888_sse2_8bit+0x29>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,76,0,0,0 ; lea 0x4c(%rip),%r10 # 298f4 <_sk_store_8888_sse2_8bit+0x94>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,126,4,152 ; movd %xmm0,(%r8,%r11,4)
- DB 235,208 ; jmp 29889 <_sk_store_8888_sse2_8bit+0x29>
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,67,15,126,100,152,8 ; movd %xmm4,0x8(%r8,%r11,4)
- DB 102,67,15,214,4,152 ; movq %xmm0,(%r8,%r11,4)
- DB 235,188 ; jmp 29889 <_sk_store_8888_sse2_8bit+0x29>
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,67,15,126,100,152,24 ; movd %xmm4,0x18(%r8,%r11,4)
- DB 102,15,112,225,229 ; pshufd $0xe5,%xmm1,%xmm4
- DB 102,67,15,126,100,152,20 ; movd %xmm4,0x14(%r8,%r11,4)
- DB 102,67,15,126,76,152,16 ; movd %xmm1,0x10(%r8,%r11,4)
- DB 243,67,15,127,4,152 ; movdqu %xmm0,(%r8,%r11,4)
- DB 235,149 ; jmp 29889 <_sk_store_8888_sse2_8bit+0x29>
- DB 189,255,255,255,209 ; mov $0xd1ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 248 ; clc
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,241 ; push %rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 217,255 ; fcos
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_sse2_8bit
-_sk_load_bgra_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,92 ; jne 29988 <_sk_load_bgra_sse2_8bit+0x78>
- DB 102,67,15,16,4,152 ; movupd (%r8,%r11,4),%xmm0
- DB 67,15,16,76,152,16 ; movups 0x10(%r8,%r11,4),%xmm1
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,40,232 ; movapd %xmm0,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,196 ; punpcklbw %xmm4,%xmm0
- DB 242,15,112,192,198 ; pshuflw $0xc6,%xmm0,%xmm0
- DB 243,15,112,192,198 ; pshufhw $0xc6,%xmm0,%xmm0
- DB 102,15,103,197 ; packuswb %xmm5,%xmm0
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,204 ; punpcklbw %xmm4,%xmm1
- DB 242,15,112,201,198 ; pshuflw $0xc6,%xmm1,%xmm1
- DB 243,15,112,201,198 ; pshufhw $0xc6,%xmm1,%xmm1
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,152 ; ja 29938 <_sk_load_bgra_sse2_8bit+0x28>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,97,0,0,0 ; lea 0x61(%rip),%r10 # 29a0c <_sk_load_bgra_sse2_8bit+0xfc>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 243,67,15,16,4,152 ; movss (%r8,%r11,4),%xmm0
- DB 233,121,255,255,255 ; jmpq 29938 <_sk_load_bgra_sse2_8bit+0x28>
- DB 102,67,15,110,68,152,8 ; movd 0x8(%r8,%r11,4),%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 102,67,15,18,4,152 ; movlpd (%r8,%r11,4),%xmm0
- DB 233,98,255,255,255 ; jmpq 29938 <_sk_load_bgra_sse2_8bit+0x28>
- DB 102,67,15,110,68,152,24 ; movd 0x18(%r8,%r11,4),%xmm0
- DB 102,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm1
- DB 243,67,15,16,68,152,20 ; movss 0x14(%r8,%r11,4),%xmm0
- DB 15,198,193,0 ; shufps $0x0,%xmm1,%xmm0
- DB 15,198,193,226 ; shufps $0xe2,%xmm1,%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 243,67,15,16,68,152,16 ; movss 0x10(%r8,%r11,4),%xmm0
- DB 243,15,16,200 ; movss %xmm0,%xmm1
- DB 102,67,15,16,4,152 ; movupd (%r8,%r11,4),%xmm0
- DB 233,46,255,255,255 ; jmpq 29938 <_sk_load_bgra_sse2_8bit+0x28>
- DB 102,144 ; xchg %ax,%ax
- DB 168,255 ; test $0xff,%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,179 ; mov $0xb3ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,214 ; callq ffffffffd7029a20 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffd6ff65ec>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,202 ; dec %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_dst_sse2_8bit
-_sk_load_bgra_dst_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,92 ; jne 29aa0 <_sk_load_bgra_dst_sse2_8bit+0x78>
- DB 102,67,15,16,20,152 ; movupd (%r8,%r11,4),%xmm2
- DB 67,15,16,92,152,16 ; movups 0x10(%r8,%r11,4),%xmm3
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,40,234 ; movapd %xmm2,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,212 ; punpcklbw %xmm4,%xmm2
- DB 242,15,112,210,198 ; pshuflw $0xc6,%xmm2,%xmm2
- DB 243,15,112,210,198 ; pshufhw $0xc6,%xmm2,%xmm2
- DB 102,15,103,213 ; packuswb %xmm5,%xmm2
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,220 ; punpcklbw %xmm4,%xmm3
- DB 242,15,112,219,198 ; pshuflw $0xc6,%xmm3,%xmm3
- DB 243,15,112,219,198 ; pshufhw $0xc6,%xmm3,%xmm3
- DB 102,15,103,221 ; packuswb %xmm5,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,152 ; ja 29a50 <_sk_load_bgra_dst_sse2_8bit+0x28>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,97,0,0,0 ; lea 0x61(%rip),%r10 # 29b24 <_sk_load_bgra_dst_sse2_8bit+0xfc>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 243,67,15,16,20,152 ; movss (%r8,%r11,4),%xmm2
- DB 233,121,255,255,255 ; jmpq 29a50 <_sk_load_bgra_dst_sse2_8bit+0x28>
- DB 102,67,15,110,84,152,8 ; movd 0x8(%r8,%r11,4),%xmm2
- DB 102,15,112,210,69 ; pshufd $0x45,%xmm2,%xmm2
- DB 102,67,15,18,20,152 ; movlpd (%r8,%r11,4),%xmm2
- DB 233,98,255,255,255 ; jmpq 29a50 <_sk_load_bgra_dst_sse2_8bit+0x28>
- DB 102,67,15,110,84,152,24 ; movd 0x18(%r8,%r11,4),%xmm2
- DB 102,15,112,218,69 ; pshufd $0x45,%xmm2,%xmm3
- DB 243,67,15,16,84,152,20 ; movss 0x14(%r8,%r11,4),%xmm2
- DB 15,198,211,0 ; shufps $0x0,%xmm3,%xmm2
- DB 15,198,211,226 ; shufps $0xe2,%xmm3,%xmm2
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 243,67,15,16,84,152,16 ; movss 0x10(%r8,%r11,4),%xmm2
- DB 243,15,16,218 ; movss %xmm2,%xmm3
- DB 102,67,15,16,20,152 ; movupd (%r8,%r11,4),%xmm2
- DB 233,46,255,255,255 ; jmpq 29a50 <_sk_load_bgra_dst_sse2_8bit+0x28>
- DB 102,144 ; xchg %ax,%ax
- DB 168,255 ; test $0xff,%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,179 ; mov $0xb3ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,214 ; callq ffffffffd7029b38 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffd6ff6704>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,202 ; dec %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_bgra_sse2_8bit
-_sk_store_bgra_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,104,229 ; punpckhbw %xmm5,%xmm4
- DB 242,15,112,228,198 ; pshuflw $0xc6,%xmm4,%xmm4
- DB 243,15,112,244,198 ; pshufhw $0xc6,%xmm4,%xmm6
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,96,229 ; punpcklbw %xmm5,%xmm4
- DB 242,15,112,228,198 ; pshuflw $0xc6,%xmm4,%xmm4
- DB 243,15,112,228,198 ; pshufhw $0xc6,%xmm4,%xmm4
- DB 102,15,103,230 ; packuswb %xmm6,%xmm4
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,104,245 ; punpckhbw %xmm5,%xmm6
- DB 242,15,112,246,198 ; pshuflw $0xc6,%xmm6,%xmm6
- DB 243,15,112,246,198 ; pshufhw $0xc6,%xmm6,%xmm6
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,96,253 ; punpcklbw %xmm5,%xmm7
- DB 242,15,112,239,198 ; pshuflw $0xc6,%xmm7,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 29bc1 <_sk_store_bgra_sse2_8bit+0x81>
- DB 243,67,15,127,44,152 ; movdqu %xmm5,(%r8,%r11,4)
- DB 243,67,15,127,100,152,16 ; movdqu %xmm4,0x10(%r8,%r11,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,236 ; ja 29bbd <_sk_store_bgra_sse2_8bit+0x7d>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,76,0,0,0 ; lea 0x4c(%rip),%r10 # 29c28 <_sk_store_bgra_sse2_8bit+0xe8>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,126,44,152 ; movd %xmm5,(%r8,%r11,4)
- DB 235,208 ; jmp 29bbd <_sk_store_bgra_sse2_8bit+0x7d>
- DB 102,15,112,229,78 ; pshufd $0x4e,%xmm5,%xmm4
- DB 102,67,15,126,100,152,8 ; movd %xmm4,0x8(%r8,%r11,4)
- DB 102,67,15,214,44,152 ; movq %xmm5,(%r8,%r11,4)
- DB 235,188 ; jmp 29bbd <_sk_store_bgra_sse2_8bit+0x7d>
- DB 102,15,112,244,78 ; pshufd $0x4e,%xmm4,%xmm6
- DB 102,67,15,126,116,152,24 ; movd %xmm6,0x18(%r8,%r11,4)
- DB 102,15,112,244,229 ; pshufd $0xe5,%xmm4,%xmm6
- DB 102,67,15,126,116,152,20 ; movd %xmm6,0x14(%r8,%r11,4)
- DB 102,67,15,126,100,152,16 ; movd %xmm4,0x10(%r8,%r11,4)
- DB 243,67,15,127,44,152 ; movdqu %xmm5,(%r8,%r11,4)
- DB 235,149 ; jmp 29bbd <_sk_store_bgra_sse2_8bit+0x7d>
- DB 189,255,255,255,209 ; mov $0xd1ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 248 ; clc
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,241 ; push %rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 217,255 ; fcos
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_565_sse2_8bit
-_sk_store_565_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 102,15,111,37,142,173,0,0 ; movdqa 0xad8e(%rip),%xmm4 # 349f0 <_sk_srcover_rgba_8888_sse2_lowp+0x15bc>
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 102,15,219,224 ; pand %xmm0,%xmm4
- DB 102,15,114,244,8 ; pslld $0x8,%xmm4
- DB 102,15,114,245,8 ; pslld $0x8,%xmm5
- DB 102,15,111,53,128,173,0,0 ; movdqa 0xad80(%rip),%xmm6 # 34a00 <_sk_srcover_rgba_8888_sse2_lowp+0x15cc>
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 102,15,219,240 ; pand %xmm0,%xmm6
- DB 102,15,114,214,5 ; psrld $0x5,%xmm6
- DB 102,15,235,244 ; por %xmm4,%xmm6
- DB 102,15,114,215,5 ; psrld $0x5,%xmm7
- DB 102,15,235,253 ; por %xmm5,%xmm7
- DB 102,15,111,45,106,173,0,0 ; movdqa 0xad6a(%rip),%xmm5 # 34a10 <_sk_srcover_rgba_8888_sse2_lowp+0x15dc>
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,219,229 ; pand %xmm5,%xmm4
- DB 102,15,219,233 ; pand %xmm1,%xmm5
- DB 102,15,114,213,19 ; psrld $0x13,%xmm5
- DB 102,15,235,239 ; por %xmm7,%xmm5
- DB 102,15,114,212,19 ; psrld $0x13,%xmm4
- DB 102,15,235,230 ; por %xmm6,%xmm4
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,114,229,16 ; psrad $0x10,%xmm5
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,229 ; packssdw %xmm5,%xmm4
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 29ceb <_sk_store_565_sse2_8bit+0xa7>
- DB 243,67,15,127,36,88 ; movdqu %xmm4,(%r8,%r11,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,236 ; ja 29ce7 <_sk_store_565_sse2_8bit+0xa3>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,82,0,0,0 ; lea 0x52(%rip),%r10 # 29d58 <_sk_store_565_sse2_8bit+0x114>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 102,67,137,4,88 ; mov %ax,(%r8,%r11,2)
- DB 235,205 ; jmp 29ce7 <_sk_store_565_sse2_8bit+0xa3>
- DB 102,15,197,196,2 ; pextrw $0x2,%xmm4,%eax
- DB 102,67,137,68,88,4 ; mov %ax,0x4(%r8,%r11,2)
- DB 102,67,15,126,36,88 ; movd %xmm4,(%r8,%r11,2)
- DB 235,186 ; jmp 29ce7 <_sk_store_565_sse2_8bit+0xa3>
- DB 102,15,197,196,6 ; pextrw $0x6,%xmm4,%eax
- DB 102,67,137,68,88,12 ; mov %ax,0xc(%r8,%r11,2)
- DB 102,15,197,196,5 ; pextrw $0x5,%xmm4,%eax
- DB 102,67,137,68,88,10 ; mov %ax,0xa(%r8,%r11,2)
- DB 102,15,197,196,4 ; pextrw $0x4,%xmm4,%eax
- DB 102,67,137,68,88,8 ; mov %ax,0x8(%r8,%r11,2)
- DB 102,67,15,214,36,88 ; movq %xmm4,(%r8,%r11,2)
- DB 235,145 ; jmp 29ce7 <_sk_store_565_sse2_8bit+0xa3>
- DB 102,144 ; xchg %ax,%ax
- DB 183,255 ; mov $0xff,%bh
- DB 255 ; (bad)
- DB 255,205 ; dec %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,246 ; push %rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 235,255 ; jmp 29d69 <_sk_store_565_sse2_8bit+0x125>
- DB 255 ; (bad)
- DB 255,224 ; jmpq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_565_dst_sse2_8bit
-_sk_load_565_dst_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,219,0,0,0 ; jne 29e6e <_sk_load_565_dst_sse2_8bit+0xfa>
- DB 243,67,15,111,20,88 ; movdqu (%r8,%r11,2),%xmm2
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,105,220 ; punpckhwd %xmm4,%xmm3
- DB 102,15,97,212 ; punpcklwd %xmm4,%xmm2
- DB 102,15,111,53,47,167,0,0 ; movdqa 0xa72f(%rip),%xmm6 # 344e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10ac>
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 102,15,219,243 ; pand %xmm3,%xmm6
- DB 102,15,114,214,8 ; psrld $0x8,%xmm6
- DB 102,15,114,215,8 ; psrld $0x8,%xmm7
- DB 102,15,111,45,81,167,0,0 ; movdqa 0xa751(%rip),%xmm5 # 34520 <_sk_srcover_rgba_8888_sse2_lowp+0x10ec>
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,219,229 ; pand %xmm5,%xmm4
- DB 102,15,219,235 ; pand %xmm3,%xmm5
- DB 102,15,114,245,19 ; pslld $0x13,%xmm5
- DB 102,15,235,238 ; por %xmm6,%xmm5
- DB 102,15,114,244,19 ; pslld $0x13,%xmm4
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 102,15,111,53,11,167,0,0 ; movdqa 0xa70b(%rip),%xmm6 # 34500 <_sk_srcover_rgba_8888_sse2_lowp+0x10cc>
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 102,15,114,247,5 ; pslld $0x5,%xmm7
- DB 102,68,15,111,5,53,172,0,0 ; movdqa 0xac35(%rip),%xmm8 # 34a40 <_sk_srcover_rgba_8888_sse2_lowp+0x160c>
- DB 102,65,15,219,216 ; pand %xmm8,%xmm3
- DB 102,15,114,211,1 ; psrld $0x1,%xmm3
- DB 102,15,235,223 ; por %xmm7,%xmm3
- DB 102,15,235,221 ; por %xmm5,%xmm3
- DB 102,15,114,213,5 ; psrld $0x5,%xmm5
- DB 102,15,219,242 ; pand %xmm2,%xmm6
- DB 102,15,114,246,5 ; pslld $0x5,%xmm6
- DB 102,65,15,219,208 ; pand %xmm8,%xmm2
- DB 102,15,114,210,1 ; psrld $0x1,%xmm2
- DB 102,15,235,214 ; por %xmm6,%xmm2
- DB 102,15,235,212 ; por %xmm4,%xmm2
- DB 102,15,114,212,5 ; psrld $0x5,%xmm4
- DB 102,15,111,53,230,171,0,0 ; movdqa 0xabe6(%rip),%xmm6 # 34a30 <_sk_srcover_rgba_8888_sse2_lowp+0x15fc>
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 102,15,111,53,102,171,0,0 ; movdqa 0xab66(%rip),%xmm6 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 102,15,235,214 ; por %xmm6,%xmm2
- DB 102,15,235,212 ; por %xmm4,%xmm2
- DB 102,15,235,222 ; por %xmm6,%xmm3
- DB 102,15,235,221 ; por %xmm5,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 15,135,19,255,255,255 ; ja 29d99 <_sk_load_565_dst_sse2_8bit+0x25>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,91,0,0,0 ; lea 0x5b(%rip),%r10 # 29eec <_sk_load_565_dst_sse2_8bit+0x178>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,183,4,88 ; movzwl (%r8,%r11,2),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 233,241,254,255,255 ; jmpq 29d99 <_sk_load_565_dst_sse2_8bit+0x25>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,67,15,196,84,88,4,2 ; pinsrw $0x2,0x4(%r8,%r11,2),%xmm2
- DB 243,67,15,16,28,88 ; movss (%r8,%r11,2),%xmm3
- DB 243,15,16,211 ; movss %xmm3,%xmm2
- DB 233,214,254,255,255 ; jmpq 29d99 <_sk_load_565_dst_sse2_8bit+0x25>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,67,15,196,84,88,12,6 ; pinsrw $0x6,0xc(%r8,%r11,2),%xmm2
- DB 102,67,15,196,84,88,10,5 ; pinsrw $0x5,0xa(%r8,%r11,2),%xmm2
- DB 102,67,15,196,84,88,8,4 ; pinsrw $0x4,0x8(%r8,%r11,2),%xmm2
- DB 102,67,15,18,20,88 ; movlpd (%r8,%r11,2),%xmm2
- DB 233,175,254,255,255 ; jmpq 29d99 <_sk_load_565_dst_sse2_8bit+0x25>
- DB 102,144 ; xchg %ax,%ax
- DB 174 ; scas %es:(%rdi),%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,200 ; dec %eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 188,255,255,255,243 ; mov $0xf3ffffff,%esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 235,255 ; jmp 29efd <_sk_load_565_dst_sse2_8bit+0x189>
- DB 255 ; (bad)
- DB 255,227 ; jmpq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,215 ; callq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_sse2_8bit
-_sk_load_a8_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,48 ; jne 29f50 <_sk_load_a8_sse2_8bit+0x48>
- DB 243,67,15,126,4,24 ; movq (%r8,%r11,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 102,15,219,5,46,163,0,0 ; pand 0xa32e(%rip),%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,105,204 ; punpckhwd %xmm4,%xmm1
- DB 102,15,97,196 ; punpcklwd %xmm4,%xmm0
- DB 102,15,114,240,24 ; pslld $0x18,%xmm0
- DB 102,15,114,241,24 ; pslld $0x18,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,198 ; ja 29f2a <_sk_load_a8_sse2_8bit+0x22>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,113,0,0,0 ; lea 0x71(%rip),%r10 # 29fe0 <_sk_load_a8_sse2_8bit+0xd8>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,167 ; jmp 29f2a <_sk_load_a8_sse2_8bit+0x22>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,192,2 ; pinsrw $0x2,%eax,%xmm0
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 243,15,16,193 ; movss %xmm1,%xmm0
- DB 235,133 ; jmp 29f2a <_sk_load_a8_sse2_8bit+0x22>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,192,6 ; pinsrw $0x6,%eax,%xmm0
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,192,5 ; pinsrw $0x5,%eax,%xmm0
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,192,4 ; pinsrw $0x4,%eax,%xmm0
- DB 102,67,15,110,12,24 ; movd (%r8,%r11,1),%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 242,15,16,193 ; movsd %xmm1,%xmm0
- DB 233,77,255,255,255 ; jmpq 29f2a <_sk_load_a8_sse2_8bit+0x22>
- DB 15,31,0 ; nopl (%rax)
- DB 152 ; cwtl
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,178,255,255,255,163 ; pushq -0x5c000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 234 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 223,255 ; (bad)
- DB 255 ; (bad)
- DB 255,212 ; callq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_dst_sse2_8bit
-_sk_load_a8_dst_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,48 ; jne 2a044 <_sk_load_a8_dst_sse2_8bit+0x48>
- DB 243,67,15,126,20,24 ; movq (%r8,%r11,1),%xmm2
- DB 102,15,96,208 ; punpcklbw %xmm0,%xmm2
- DB 102,15,219,21,58,162,0,0 ; pand 0xa23a(%rip),%xmm2 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,105,220 ; punpckhwd %xmm4,%xmm3
- DB 102,15,97,212 ; punpcklwd %xmm4,%xmm2
- DB 102,15,114,242,24 ; pslld $0x18,%xmm2
- DB 102,15,114,243,24 ; pslld $0x18,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,198 ; ja 2a01e <_sk_load_a8_dst_sse2_8bit+0x22>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,113,0,0,0 ; lea 0x71(%rip),%r10 # 2a0d4 <_sk_load_a8_dst_sse2_8bit+0xd8>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 235,167 ; jmp 2a01e <_sk_load_a8_dst_sse2_8bit+0x22>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,196,208,2 ; pinsrw $0x2,%eax,%xmm2
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 243,15,16,211 ; movss %xmm3,%xmm2
- DB 235,133 ; jmp 2a01e <_sk_load_a8_dst_sse2_8bit+0x22>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,196,208,6 ; pinsrw $0x6,%eax,%xmm2
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,208,5 ; pinsrw $0x5,%eax,%xmm2
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,208,4 ; pinsrw $0x4,%eax,%xmm2
- DB 102,67,15,110,28,24 ; movd (%r8,%r11,1),%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 242,15,16,211 ; movsd %xmm3,%xmm2
- DB 233,77,255,255,255 ; jmpq 2a01e <_sk_load_a8_dst_sse2_8bit+0x22>
- DB 15,31,0 ; nopl (%rax)
- DB 152 ; cwtl
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,178,255,255,255,163 ; pushq -0x5c000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 234 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 223,255 ; (bad)
- DB 255 ; (bad)
- DB 255,212 ; callq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_a8_sse2_8bit
-_sk_store_a8_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,114,212,24 ; psrld $0x18,%xmm4
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,114,213,24 ; psrld $0x18,%xmm5
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,114,229,16 ; psrad $0x10,%xmm5
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,229 ; packssdw %xmm5,%xmm4
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,22 ; jne 2a148 <_sk_store_a8_sse2_8bit+0x58>
- DB 102,15,219,37,38,161,0,0 ; pand 0xa126(%rip),%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,67,15,214,36,24 ; movq %xmm4,(%r8,%r11,1)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,236 ; ja 2a144 <_sk_store_a8_sse2_8bit+0x54>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,105,0,0,0 ; lea 0x69(%rip),%r10 # 2a1cc <_sk_store_a8_sse2_8bit+0xdc>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 67,136,4,24 ; mov %al,(%r8,%r11,1)
- DB 235,206 ; jmp 2a144 <_sk_store_a8_sse2_8bit+0x54>
- DB 102,15,197,196,2 ; pextrw $0x2,%xmm4,%eax
- DB 67,136,68,24,2 ; mov %al,0x2(%r8,%r11,1)
- DB 102,15,219,37,216,160,0,0 ; pand 0xa0d8(%rip),%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 102,67,137,4,24 ; mov %ax,(%r8,%r11,1)
- DB 235,173 ; jmp 2a144 <_sk_store_a8_sse2_8bit+0x54>
- DB 102,15,197,196,6 ; pextrw $0x6,%xmm4,%eax
- DB 67,136,68,24,6 ; mov %al,0x6(%r8,%r11,1)
- DB 102,15,197,196,5 ; pextrw $0x5,%xmm4,%eax
- DB 67,136,68,24,5 ; mov %al,0x5(%r8,%r11,1)
- DB 102,15,197,196,4 ; pextrw $0x4,%xmm4,%eax
- DB 67,136,68,24,4 ; mov %al,0x4(%r8,%r11,1)
- DB 102,15,219,37,163,160,0,0 ; pand 0xa0a3(%rip),%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,67,15,126,36,24 ; movd %xmm4,(%r8,%r11,1)
- DB 233,120,255,255,255 ; jmpq 2a144 <_sk_store_a8_sse2_8bit+0x54>
- DB 160,255,255,255,180,255,255,255,170 ; movabs 0xaaffffffb4ffffff,%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 233,255,255,255,223 ; jmpq ffffffffe002a1dc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdfff6da8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,203 ; dec %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_sse2_8bit
-_sk_load_g8_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,116 ; jne 2a274 <_sk_load_g8_sse2_8bit+0x8c>
- DB 243,67,15,126,4,24 ; movq (%r8,%r11,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 102,15,219,5,78,160,0,0 ; pand 0xa04e(%rip),%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,97,225 ; punpcklwd %xmm1,%xmm4
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,111,45,70,168,0,0 ; movdqa 0xa846(%rip),%xmm5 # 34a70 <_sk_srcover_rgba_8888_sse2_lowp+0x163c>
- DB 102,15,112,240,245 ; pshufd $0xf5,%xmm0,%xmm6
- DB 102,15,244,197 ; pmuludq %xmm5,%xmm0
- DB 102,15,112,200,232 ; pshufd $0xe8,%xmm0,%xmm1
- DB 102,15,244,245 ; pmuludq %xmm5,%xmm6
- DB 102,15,112,198,232 ; pshufd $0xe8,%xmm6,%xmm0
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,15,112,244,245 ; pshufd $0xf5,%xmm4,%xmm6
- DB 102,15,244,229 ; pmuludq %xmm5,%xmm4
- DB 102,15,112,196,232 ; pshufd $0xe8,%xmm4,%xmm0
- DB 102,15,244,245 ; pmuludq %xmm5,%xmm6
- DB 102,15,112,230,232 ; pshufd $0xe8,%xmm6,%xmm4
- DB 102,15,98,196 ; punpckldq %xmm4,%xmm0
- DB 102,15,111,37,88,167,0,0 ; movdqa 0xa758(%rip),%xmm4 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 102,15,235,196 ; por %xmm4,%xmm0
- DB 102,15,235,204 ; por %xmm4,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,130 ; ja 2a20a <_sk_load_g8_sse2_8bit+0x22>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,117,0,0,0 ; lea 0x75(%rip),%r10 # 2a308 <_sk_load_g8_sse2_8bit+0x120>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 233,96,255,255,255 ; jmpq 2a20a <_sk_load_g8_sse2_8bit+0x22>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,192,2 ; pinsrw $0x2,%eax,%xmm0
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 243,15,16,193 ; movss %xmm1,%xmm0
- DB 233,59,255,255,255 ; jmpq 2a20a <_sk_load_g8_sse2_8bit+0x22>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,192,6 ; pinsrw $0x6,%eax,%xmm0
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,192,5 ; pinsrw $0x5,%eax,%xmm0
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,192,4 ; pinsrw $0x4,%eax,%xmm0
- DB 102,67,15,110,12,24 ; movd (%r8,%r11,1),%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 242,15,16,193 ; movsd %xmm1,%xmm0
- DB 233,3,255,255,255 ; jmpq 2a20a <_sk_load_g8_sse2_8bit+0x22>
- DB 144 ; nop
- DB 148 ; xchg %eax,%esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,177,255,255,255,162 ; pushq -0x5d000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 236 ; in (%dx),%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,225 ; jmpq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,214 ; callq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_dst_sse2_8bit
-_sk_load_g8_dst_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,116 ; jne 2a3b0 <_sk_load_g8_dst_sse2_8bit+0x8c>
- DB 243,67,15,126,20,24 ; movq (%r8,%r11,1),%xmm2
- DB 102,15,96,208 ; punpcklbw %xmm0,%xmm2
- DB 102,15,219,21,18,159,0,0 ; pand 0x9f12(%rip),%xmm2 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,97,227 ; punpcklwd %xmm3,%xmm4
- DB 102,15,105,211 ; punpckhwd %xmm3,%xmm2
- DB 102,15,111,45,10,167,0,0 ; movdqa 0xa70a(%rip),%xmm5 # 34a70 <_sk_srcover_rgba_8888_sse2_lowp+0x163c>
- DB 102,15,112,242,245 ; pshufd $0xf5,%xmm2,%xmm6
- DB 102,15,244,213 ; pmuludq %xmm5,%xmm2
- DB 102,15,112,218,232 ; pshufd $0xe8,%xmm2,%xmm3
- DB 102,15,244,245 ; pmuludq %xmm5,%xmm6
- DB 102,15,112,214,232 ; pshufd $0xe8,%xmm6,%xmm2
- DB 102,15,98,218 ; punpckldq %xmm2,%xmm3
- DB 102,15,112,244,245 ; pshufd $0xf5,%xmm4,%xmm6
- DB 102,15,244,229 ; pmuludq %xmm5,%xmm4
- DB 102,15,112,212,232 ; pshufd $0xe8,%xmm4,%xmm2
- DB 102,15,244,245 ; pmuludq %xmm5,%xmm6
- DB 102,15,112,230,232 ; pshufd $0xe8,%xmm6,%xmm4
- DB 102,15,98,212 ; punpckldq %xmm4,%xmm2
- DB 102,15,111,37,28,166,0,0 ; movdqa 0xa61c(%rip),%xmm4 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 102,15,235,212 ; por %xmm4,%xmm2
- DB 102,15,235,220 ; por %xmm4,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,130 ; ja 2a346 <_sk_load_g8_dst_sse2_8bit+0x22>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,117,0,0,0 ; lea 0x75(%rip),%r10 # 2a444 <_sk_load_g8_dst_sse2_8bit+0x120>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 233,96,255,255,255 ; jmpq 2a346 <_sk_load_g8_dst_sse2_8bit+0x22>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,196,208,2 ; pinsrw $0x2,%eax,%xmm2
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 243,15,16,211 ; movss %xmm3,%xmm2
- DB 233,59,255,255,255 ; jmpq 2a346 <_sk_load_g8_dst_sse2_8bit+0x22>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,196,208,6 ; pinsrw $0x6,%eax,%xmm2
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,208,5 ; pinsrw $0x5,%eax,%xmm2
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,208,4 ; pinsrw $0x4,%eax,%xmm2
- DB 102,67,15,110,28,24 ; movd (%r8,%r11,1),%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 242,15,16,211 ; movsd %xmm3,%xmm2
- DB 233,3,255,255,255 ; jmpq 2a346 <_sk_load_g8_dst_sse2_8bit+0x22>
- DB 144 ; nop
- DB 148 ; xchg %eax,%esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,177,255,255,255,162 ; pushq -0x5d000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 236 ; in (%dx),%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,225 ; jmpq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,214 ; callq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_srcover_rgba_8888_sse2_8bit
-_sk_srcover_rgba_8888_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,253,0,0,0 ; jne 2a57d <_sk_srcover_rgba_8888_sse2_8bit+0x11d>
- DB 102,71,15,16,12,152 ; movupd (%r8,%r11,4),%xmm9
- DB 71,15,16,68,152,16 ; movups 0x10(%r8,%r11,4),%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,236,95 ; pshufhw $0x5f,%xmm4,%xmm5
- DB 242,15,112,224,231 ; pshuflw $0xe7,%xmm0,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm4
- DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
- DB 102,69,15,40,217 ; movapd %xmm9,%xmm11
- DB 102,69,15,96,218 ; punpcklbw %xmm10,%xmm11
- DB 102,69,15,40,225 ; movapd %xmm9,%xmm12
- DB 102,69,15,104,226 ; punpckhbw %xmm10,%xmm12
- DB 102,69,15,111,232 ; movdqa %xmm8,%xmm13
- DB 102,69,15,96,234 ; punpcklbw %xmm10,%xmm13
- DB 102,69,15,111,240 ; movdqa %xmm8,%xmm14
- DB 102,69,15,104,242 ; punpckhbw %xmm10,%xmm14
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,65,15,96,250 ; punpcklbw %xmm10,%xmm7
- DB 102,65,15,104,226 ; punpckhbw %xmm10,%xmm4
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,65,15,96,242 ; punpcklbw %xmm10,%xmm6
- DB 102,65,15,104,234 ; punpckhbw %xmm10,%xmm5
- DB 102,65,15,213,238 ; pmullw %xmm14,%xmm5
- DB 102,65,15,213,245 ; pmullw %xmm13,%xmm6
- DB 102,65,15,213,228 ; pmullw %xmm12,%xmm4
- DB 102,65,15,213,251 ; pmullw %xmm11,%xmm7
- DB 102,65,15,253,251 ; paddw %xmm11,%xmm7
- DB 102,65,15,253,228 ; paddw %xmm12,%xmm4
- DB 102,65,15,253,245 ; paddw %xmm13,%xmm6
- DB 102,65,15,253,238 ; paddw %xmm14,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,245 ; packuswb %xmm5,%xmm6
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,68,15,248,198 ; psubb %xmm6,%xmm8
- DB 102,68,15,248,207 ; psubb %xmm7,%xmm9
- DB 102,68,15,252,200 ; paddb %xmm0,%xmm9
- DB 102,68,15,252,193 ; paddb %xmm1,%xmm8
- DB 117,78 ; jne 2a5ba <_sk_srcover_rgba_8888_sse2_8bit+0x15a>
- DB 243,71,15,127,12,152 ; movdqu %xmm9,(%r8,%r11,4)
- DB 243,71,15,127,68,152,16 ; movdqu %xmm8,0x10(%r8,%r11,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 15,135,241,254,255,255 ; ja 2a48c <_sk_srcover_rgba_8888_sse2_8bit+0x2c>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,214,0,0,0 ; lea 0xd6(%rip),%r10 # 2a67c <_sk_srcover_rgba_8888_sse2_8bit+0x21c>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 243,71,15,16,12,152 ; movss (%r8,%r11,4),%xmm9
- DB 233,210,254,255,255 ; jmpq 2a48c <_sk_srcover_rgba_8888_sse2_8bit+0x2c>
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,175 ; ja 2a579 <_sk_srcover_rgba_8888_sse2_8bit+0x119>
- DB 65,15,182,193 ; movzbl %r9b,%eax
- DB 76,141,13,195,0,0,0 ; lea 0xc3(%rip),%r9 # 2a698 <_sk_srcover_rgba_8888_sse2_8bit+0x238>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,71,15,126,12,152 ; movd %xmm9,(%r8,%r11,4)
- DB 235,147 ; jmp 2a579 <_sk_srcover_rgba_8888_sse2_8bit+0x119>
- DB 102,67,15,110,100,152,8 ; movd 0x8(%r8,%r11,4),%xmm4
- DB 102,68,15,112,204,69 ; pshufd $0x45,%xmm4,%xmm9
- DB 102,71,15,18,12,152 ; movlpd (%r8,%r11,4),%xmm9
- DB 233,142,254,255,255 ; jmpq 2a48c <_sk_srcover_rgba_8888_sse2_8bit+0x2c>
- DB 102,67,15,110,100,152,24 ; movd 0x18(%r8,%r11,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 243,67,15,16,100,152,20 ; movss 0x14(%r8,%r11,4),%xmm4
- DB 65,15,198,224,0 ; shufps $0x0,%xmm8,%xmm4
- DB 65,15,198,224,226 ; shufps $0xe2,%xmm8,%xmm4
- DB 68,15,40,196 ; movaps %xmm4,%xmm8
- DB 243,67,15,16,100,152,16 ; movss 0x10(%r8,%r11,4),%xmm4
- DB 243,68,15,16,196 ; movss %xmm4,%xmm8
- DB 102,71,15,16,12,152 ; movupd (%r8,%r11,4),%xmm9
- DB 233,85,254,255,255 ; jmpq 2a48c <_sk_srcover_rgba_8888_sse2_8bit+0x2c>
- DB 102,65,15,112,225,78 ; pshufd $0x4e,%xmm9,%xmm4
- DB 102,67,15,126,100,152,8 ; movd %xmm4,0x8(%r8,%r11,4)
- DB 102,71,15,214,12,152 ; movq %xmm9,(%r8,%r11,4)
- DB 233,42,255,255,255 ; jmpq 2a579 <_sk_srcover_rgba_8888_sse2_8bit+0x119>
- DB 102,65,15,112,224,78 ; pshufd $0x4e,%xmm8,%xmm4
- DB 102,67,15,126,100,152,24 ; movd %xmm4,0x18(%r8,%r11,4)
- DB 102,65,15,112,224,229 ; pshufd $0xe5,%xmm8,%xmm4
- DB 102,67,15,126,100,152,20 ; movd %xmm4,0x14(%r8,%r11,4)
- DB 102,71,15,126,68,152,16 ; movd %xmm8,0x10(%r8,%r11,4)
- DB 243,71,15,127,12,152 ; movdqu %xmm9,(%r8,%r11,4)
- DB 233,254,254,255,255 ; jmpq 2a579 <_sk_srcover_rgba_8888_sse2_8bit+0x119>
- DB 144 ; nop
- DB 51,255 ; xor %edi,%edi
- DB 255 ; (bad)
- DB 255,119,255 ; pushq -0x1(%rdi)
- DB 255 ; (bad)
- DB 255,106,255 ; ljmp *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,176,255,255,255,164 ; pushq -0x5b000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,143,255,255,255,130 ; decl -0x7d000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,70,255 ; incl -0x1(%rsi)
- DB 255 ; (bad)
- DB 255,172,255,255,255,159,255 ; ljmp *-0x600001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 216,255 ; fdivr %st(7),%st
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,196 ; inc %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 183,255 ; mov $0xff,%bh
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_scale_1_float_sse2_8bit
-_sk_scale_1_float_sse2_8bit LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,89,5,8,154,0,0 ; mulss 0x9a08(%rip),%xmm0 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 243,15,44,192 ; cvttss2si %xmm0,%eax
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,96,198 ; punpcklbw %xmm6,%xmm0
- DB 102,68,15,104,206 ; punpckhbw %xmm6,%xmm9
- DB 102,15,96,206 ; punpcklbw %xmm6,%xmm1
- DB 102,68,15,104,198 ; punpckhbw %xmm6,%xmm8
- DB 102,15,110,240 ; movd %eax,%xmm6
- DB 102,15,96,246 ; punpcklbw %xmm6,%xmm6
- DB 242,15,112,246,0 ; pshuflw $0x0,%xmm6,%xmm6
- DB 102,15,112,246,80 ; pshufd $0x50,%xmm6,%xmm6
- DB 102,15,219,53,91,155,0,0 ; pand 0x9b5b(%rip),%xmm6 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,65,15,213,248 ; pmullw %xmm8,%xmm7
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,15,213,225 ; pmullw %xmm1,%xmm4
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,65,15,213,233 ; pmullw %xmm9,%xmm5
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,15,253,198 ; paddw %xmm6,%xmm0
- DB 102,65,15,253,233 ; paddw %xmm9,%xmm5
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,65,15,253,248 ; paddw %xmm8,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,207 ; packuswb %xmm7,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,197 ; packuswb %xmm5,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_u8_sse2_8bit
-_sk_scale_u8_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,239,0,0,0 ; jne 2a860 <_sk_scale_u8_sse2_8bit+0x10b>
- DB 243,67,15,126,36,24 ; movq (%r8,%r11,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,219,37,221,154,0,0 ; pand 0x9add(%rip),%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,65,15,105,232 ; punpckhwd %xmm8,%xmm5
- DB 102,65,15,97,224 ; punpcklwd %xmm8,%xmm4
- DB 102,15,114,244,24 ; pslld $0x18,%xmm4
- DB 102,15,114,245,24 ; pslld $0x18,%xmm5
- DB 242,15,112,237,231 ; pshuflw $0xe7,%xmm5,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,245,95 ; pshufhw $0x5f,%xmm5,%xmm6
- DB 242,15,112,228,231 ; pshuflw $0xe7,%xmm4,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,252,95 ; pshufhw $0x5f,%xmm4,%xmm7
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,69,15,96,200 ; punpcklbw %xmm8,%xmm9
- DB 102,65,15,104,192 ; punpckhbw %xmm8,%xmm0
- DB 102,68,15,111,209 ; movdqa %xmm1,%xmm10
- DB 102,69,15,96,208 ; punpcklbw %xmm8,%xmm10
- DB 102,65,15,104,200 ; punpckhbw %xmm8,%xmm1
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,65,15,96,224 ; punpcklbw %xmm8,%xmm4
- DB 102,65,15,104,248 ; punpckhbw %xmm8,%xmm7
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,65,15,96,232 ; punpcklbw %xmm8,%xmm5
- DB 102,65,15,104,240 ; punpckhbw %xmm8,%xmm6
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,65,15,213,234 ; pmullw %xmm10,%xmm5
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,65,15,213,225 ; pmullw %xmm9,%xmm4
- DB 102,65,15,253,225 ; paddw %xmm9,%xmm4
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 102,65,15,253,234 ; paddw %xmm10,%xmm5
- DB 102,15,253,241 ; paddw %xmm1,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,231 ; packuswb %xmm7,%xmm4
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 15,135,3,255,255,255 ; ja 2a77b <_sk_scale_u8_sse2_8bit+0x26>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,117,0,0,0 ; lea 0x75(%rip),%r10 # 2a8f8 <_sk_scale_u8_sse2_8bit+0x1a3>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 233,225,254,255,255 ; jmpq 2a77b <_sk_scale_u8_sse2_8bit+0x26>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,224,2 ; pinsrw $0x2,%eax,%xmm4
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 233,188,254,255,255 ; jmpq 2a77b <_sk_scale_u8_sse2_8bit+0x26>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,224,6 ; pinsrw $0x6,%eax,%xmm4
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,224,5 ; pinsrw $0x5,%eax,%xmm4
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,224,4 ; pinsrw $0x4,%eax,%xmm4
- DB 102,67,15,110,44,24 ; movd (%r8,%r11,1),%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 233,132,254,255,255 ; jmpq 2a77b <_sk_scale_u8_sse2_8bit+0x26>
- DB 144 ; nop
- DB 148 ; xchg %eax,%esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,177,255,255,255,162 ; pushq -0x5d000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 236 ; in (%dx),%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,225 ; jmpq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,214 ; callq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_1_float_sse2_8bit
-_sk_lerp_1_float_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,32 ; movss (%rax),%xmm4
- DB 243,15,89,37,178,151,0,0 ; mulss 0x97b2(%rip),%xmm4 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 243,15,44,196 ; cvttss2si %xmm4,%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,0 ; pshuflw $0x0,%xmm4,%xmm4
- DB 102,68,15,112,196,80 ; pshufd $0x50,%xmm4,%xmm8
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,65,15,96,249 ; punpcklbw %xmm9,%xmm7
- DB 102,65,15,104,193 ; punpckhbw %xmm9,%xmm0
- DB 102,68,15,111,209 ; movdqa %xmm1,%xmm10
- DB 102,69,15,96,209 ; punpcklbw %xmm9,%xmm10
- DB 102,65,15,104,201 ; punpckhbw %xmm9,%xmm1
- DB 102,15,111,45,253,152,0,0 ; movdqa 0x98fd(%rip),%xmm5 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,65,15,219,232 ; pand %xmm8,%xmm5
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,213,225 ; pmullw %xmm1,%xmm4
- DB 102,68,15,111,221 ; movdqa %xmm5,%xmm11
- DB 102,69,15,213,218 ; pmullw %xmm10,%xmm11
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,15,213,239 ; pmullw %xmm7,%xmm5
- DB 102,15,253,239 ; paddw %xmm7,%xmm5
- DB 102,15,253,240 ; paddw %xmm0,%xmm6
- DB 102,69,15,253,218 ; paddw %xmm10,%xmm11
- DB 102,15,253,225 ; paddw %xmm1,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,68,15,103,220 ; packuswb %xmm4,%xmm11
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 102,15,118,255 ; pcmpeqd %xmm7,%xmm7
- DB 102,65,15,239,248 ; pxor %xmm8,%xmm7
- DB 102,68,15,111,210 ; movdqa %xmm2,%xmm10
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,65,15,96,241 ; punpcklbw %xmm9,%xmm6
- DB 102,69,15,104,209 ; punpckhbw %xmm9,%xmm10
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,69,15,96,225 ; punpcklbw %xmm9,%xmm12
- DB 102,69,15,104,193 ; punpckhbw %xmm9,%xmm8
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,65,15,96,193 ; punpcklbw %xmm9,%xmm0
- DB 102,65,15,104,249 ; punpckhbw %xmm9,%xmm7
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,65,15,213,204 ; pmullw %xmm12,%xmm1
- DB 102,65,15,213,250 ; pmullw %xmm10,%xmm7
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,253,198 ; paddw %xmm6,%xmm0
- DB 102,65,15,253,250 ; paddw %xmm10,%xmm7
- DB 102,65,15,253,204 ; paddw %xmm12,%xmm1
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,204 ; packuswb %xmm4,%xmm1
- DB 102,65,15,252,203 ; paddb %xmm11,%xmm1
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 102,15,252,197 ; paddb %xmm5,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lerp_u8_sse2_8bit
-_sk_lerp_u8_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,99,193 ; movslq %ecx,%r8
- DB 77,15,175,193 ; imul %r9,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 76,99,218 ; movslq %edx,%r11
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,141,1,0,0 ; jne 2abf3 <_sk_lerp_u8_sse2_8bit+0x1a9>
- DB 243,67,15,126,36,24 ; movq (%r8,%r11,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,219,37,232,151,0,0 ; pand 0x97e8(%rip),%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,65,15,105,232 ; punpckhwd %xmm8,%xmm5
- DB 102,65,15,97,224 ; punpcklwd %xmm8,%xmm4
- DB 102,15,114,244,24 ; pslld $0x18,%xmm4
- DB 102,15,114,245,24 ; pslld $0x18,%xmm5
- DB 242,15,112,237,231 ; pshuflw $0xe7,%xmm5,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,253,95 ; pshufhw $0x5f,%xmm5,%xmm7
- DB 242,15,112,228,231 ; pshuflw $0xe7,%xmm4,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,244,95 ; pshufhw $0x5f,%xmm4,%xmm6
- DB 102,68,15,111,208 ; movdqa %xmm0,%xmm10
- DB 102,69,15,96,208 ; punpcklbw %xmm8,%xmm10
- DB 102,65,15,104,192 ; punpckhbw %xmm8,%xmm0
- DB 102,68,15,111,217 ; movdqa %xmm1,%xmm11
- DB 102,69,15,96,216 ; punpcklbw %xmm8,%xmm11
- DB 102,65,15,104,200 ; punpckhbw %xmm8,%xmm1
- DB 102,68,15,111,206 ; movdqa %xmm6,%xmm9
- DB 102,69,15,96,200 ; punpcklbw %xmm8,%xmm9
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,65,15,104,224 ; punpckhbw %xmm8,%xmm4
- DB 102,68,15,111,231 ; movdqa %xmm7,%xmm12
- DB 102,69,15,96,224 ; punpcklbw %xmm8,%xmm12
- DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,65,15,104,232 ; punpckhbw %xmm8,%xmm5
- DB 102,15,213,233 ; pmullw %xmm1,%xmm5
- DB 102,69,15,213,227 ; pmullw %xmm11,%xmm12
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,69,15,213,202 ; pmullw %xmm10,%xmm9
- DB 102,69,15,253,202 ; paddw %xmm10,%xmm9
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,69,15,253,227 ; paddw %xmm11,%xmm12
- DB 102,15,253,233 ; paddw %xmm1,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,68,15,103,229 ; packuswb %xmm5,%xmm12
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,68,15,103,204 ; packuswb %xmm4,%xmm9
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,239,248 ; pxor %xmm0,%xmm7
- DB 102,15,239,240 ; pxor %xmm0,%xmm6
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,65,15,96,224 ; punpcklbw %xmm8,%xmm4
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,65,15,104,232 ; punpckhbw %xmm8,%xmm5
- DB 102,68,15,111,211 ; movdqa %xmm3,%xmm10
- DB 102,69,15,96,208 ; punpcklbw %xmm8,%xmm10
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,69,15,104,216 ; punpckhbw %xmm8,%xmm11
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,65,15,96,192 ; punpcklbw %xmm8,%xmm0
- DB 102,65,15,104,240 ; punpckhbw %xmm8,%xmm6
- DB 102,15,111,207 ; movdqa %xmm7,%xmm1
- DB 102,65,15,96,200 ; punpcklbw %xmm8,%xmm1
- DB 102,65,15,104,248 ; punpckhbw %xmm8,%xmm7
- DB 102,65,15,213,251 ; pmullw %xmm11,%xmm7
- DB 102,65,15,213,202 ; pmullw %xmm10,%xmm1
- DB 102,15,213,245 ; pmullw %xmm5,%xmm6
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,253,196 ; paddw %xmm4,%xmm0
- DB 102,15,253,245 ; paddw %xmm5,%xmm6
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,65,15,253,251 ; paddw %xmm11,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,207 ; packuswb %xmm7,%xmm1
- DB 102,65,15,252,204 ; paddb %xmm12,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,198 ; packuswb %xmm6,%xmm0
- DB 102,65,15,252,193 ; paddb %xmm9,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 15,135,101,254,255,255 ; ja 2aa70 <_sk_lerp_u8_sse2_8bit+0x26>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,118,0,0,0 ; lea 0x76(%rip),%r10 # 2ac8c <_sk_lerp_u8_sse2_8bit+0x242>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 67,15,182,4,24 ; movzbl (%r8,%r11,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 233,67,254,255,255 ; jmpq 2aa70 <_sk_lerp_u8_sse2_8bit+0x26>
- DB 67,15,182,68,24,2 ; movzbl 0x2(%r8,%r11,1),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,224,2 ; pinsrw $0x2,%eax,%xmm4
- DB 67,15,183,4,24 ; movzwl (%r8,%r11,1),%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 233,30,254,255,255 ; jmpq 2aa70 <_sk_lerp_u8_sse2_8bit+0x26>
- DB 67,15,182,68,24,6 ; movzbl 0x6(%r8,%r11,1),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,224,6 ; pinsrw $0x6,%eax,%xmm4
- DB 67,15,182,68,24,5 ; movzbl 0x5(%r8,%r11,1),%eax
- DB 102,15,196,224,5 ; pinsrw $0x5,%eax,%xmm4
- DB 67,15,182,68,24,4 ; movzbl 0x4(%r8,%r11,1),%eax
- DB 102,15,196,224,4 ; pinsrw $0x4,%eax,%xmm4
- DB 102,67,15,110,44,24 ; movd (%r8,%r11,1),%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 233,230,253,255,255 ; jmpq 2aa70 <_sk_lerp_u8_sse2_8bit+0x26>
- DB 102,144 ; xchg %ax,%ax
- DB 147 ; xchg %eax,%ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,176,255,255,255,161 ; pushq -0x5e000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 235,255 ; jmp 2ac99 <_sk_lerp_u8_sse2_8bit+0x24f>
- DB 255 ; (bad)
- DB 255,224 ; jmpq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_move_src_dst_sse2_8bit
-_sk_move_src_dst_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_dst_src_sse2_8bit
-_sk_move_dst_src_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_black_color_sse2_8bit
-_sk_black_color_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,5,251,156,0,0 ; movaps 0x9cfb(%rip),%xmm0 # 349c0 <_sk_srcover_rgba_8888_sse2_lowp+0x158c>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_white_color_sse2_8bit
-_sk_white_color_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,118,201 ; pcmpeqd %xmm1,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clear_sse2_8bit
-_sk_clear_sse2_8bit LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcatop_sse2_8bit
-_sk_srcatop_sse2_8bit LABEL PROC
- DB 242,15,112,227,231 ; pshuflw $0xe7,%xmm3,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,220,95 ; pshufhw $0x5f,%xmm4,%xmm11
- DB 242,15,112,234,231 ; pshuflw $0xe7,%xmm2,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,245,95 ; pshufhw $0x5f,%xmm5,%xmm6
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 242,68,15,112,208,231 ; pshuflw $0xe7,%xmm0,%xmm10
- DB 102,65,15,96,193 ; punpcklbw %xmm9,%xmm0
- DB 102,69,15,104,193 ; punpckhbw %xmm9,%xmm8
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 242,68,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm12
- DB 102,65,15,96,201 ; punpcklbw %xmm9,%xmm1
- DB 102,65,15,104,225 ; punpckhbw %xmm9,%xmm4
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,65,15,96,249 ; punpcklbw %xmm9,%xmm7
- DB 102,65,15,104,241 ; punpckhbw %xmm9,%xmm6
- DB 102,65,15,111,235 ; movdqa %xmm11,%xmm5
- DB 102,65,15,96,233 ; punpcklbw %xmm9,%xmm5
- DB 102,69,15,104,217 ; punpckhbw %xmm9,%xmm11
- DB 102,68,15,213,220 ; pmullw %xmm4,%xmm11
- DB 102,15,213,233 ; pmullw %xmm1,%xmm5
- DB 102,65,15,213,240 ; pmullw %xmm8,%xmm6
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 102,65,15,253,240 ; paddw %xmm8,%xmm6
- DB 102,15,253,233 ; paddw %xmm1,%xmm5
- DB 102,68,15,253,220 ; paddw %xmm4,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,65,15,103,235 ; packuswb %xmm11,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,254 ; packuswb %xmm6,%xmm7
- DB 243,65,15,112,194,231 ; pshufhw $0xe7,%xmm10,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,224,95 ; pshufhw $0x5f,%xmm0,%xmm4
- DB 243,65,15,112,196,231 ; pshufhw $0xe7,%xmm12,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,240,95 ; pshufhw $0x5f,%xmm0,%xmm6
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,239,240 ; pxor %xmm0,%xmm6
- DB 102,15,239,224 ; pxor %xmm0,%xmm4
- DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
- DB 102,68,15,111,210 ; movdqa %xmm2,%xmm10
- DB 102,69,15,96,209 ; punpcklbw %xmm9,%xmm10
- DB 102,69,15,104,193 ; punpckhbw %xmm9,%xmm8
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,69,15,96,225 ; punpcklbw %xmm9,%xmm12
- DB 102,69,15,104,217 ; punpckhbw %xmm9,%xmm11
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,65,15,96,193 ; punpcklbw %xmm9,%xmm0
- DB 102,65,15,104,225 ; punpckhbw %xmm9,%xmm4
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,65,15,96,201 ; punpcklbw %xmm9,%xmm1
- DB 102,65,15,104,241 ; punpckhbw %xmm9,%xmm6
- DB 102,65,15,213,243 ; pmullw %xmm11,%xmm6
- DB 102,65,15,213,204 ; pmullw %xmm12,%xmm1
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,65,15,253,204 ; paddw %xmm12,%xmm1
- DB 102,65,15,253,243 ; paddw %xmm11,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,206 ; packuswb %xmm6,%xmm1
- DB 102,15,252,205 ; paddb %xmm5,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,196 ; packuswb %xmm4,%xmm0
- DB 102,15,252,199 ; paddb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstatop_sse2_8bit
-_sk_dstatop_sse2_8bit LABEL PROC
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,236,95 ; pshufhw $0x5f,%xmm4,%xmm13
- DB 242,15,112,224,231 ; pshuflw $0xe7,%xmm0,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,236,95 ; pshufhw $0x5f,%xmm4,%xmm5
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
- DB 242,68,15,112,218,231 ; pshuflw $0xe7,%xmm2,%xmm11
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,65,15,96,225 ; punpcklbw %xmm9,%xmm4
- DB 102,69,15,104,193 ; punpckhbw %xmm9,%xmm8
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
- DB 102,69,15,96,209 ; punpcklbw %xmm9,%xmm10
- DB 102,68,15,213,212 ; pmullw %xmm4,%xmm10
- DB 102,68,15,253,212 ; paddw %xmm4,%xmm10
- DB 242,68,15,112,227,231 ; pshuflw $0xe7,%xmm3,%xmm12
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,65,15,96,241 ; punpcklbw %xmm9,%xmm6
- DB 102,65,15,104,249 ; punpckhbw %xmm9,%xmm7
- DB 102,65,15,104,233 ; punpckhbw %xmm9,%xmm5
- DB 102,65,15,213,232 ; pmullw %xmm8,%xmm5
- DB 102,65,15,253,232 ; paddw %xmm8,%xmm5
- DB 102,65,15,111,229 ; movdqa %xmm13,%xmm4
- DB 102,65,15,96,225 ; punpcklbw %xmm9,%xmm4
- DB 102,69,15,104,233 ; punpckhbw %xmm9,%xmm13
- DB 102,68,15,213,239 ; pmullw %xmm7,%xmm13
- DB 102,15,213,230 ; pmullw %xmm6,%xmm4
- DB 102,15,253,230 ; paddw %xmm6,%xmm4
- DB 102,68,15,253,239 ; paddw %xmm7,%xmm13
- DB 102,65,15,113,213,8 ; psrlw $0x8,%xmm13
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,65,15,103,229 ; packuswb %xmm13,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,68,15,103,213 ; packuswb %xmm5,%xmm10
- DB 243,65,15,112,235,231 ; pshufhw $0xe7,%xmm11,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,253,95 ; pshufhw $0x5f,%xmm5,%xmm7
- DB 243,65,15,112,236,231 ; pshufhw $0xe7,%xmm12,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,245,95 ; pshufhw $0x5f,%xmm5,%xmm6
- DB 102,15,118,237 ; pcmpeqd %xmm5,%xmm5
- DB 102,15,239,245 ; pxor %xmm5,%xmm6
- DB 102,15,239,253 ; pxor %xmm5,%xmm7
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,69,15,96,193 ; punpcklbw %xmm9,%xmm8
- DB 102,65,15,104,193 ; punpckhbw %xmm9,%xmm0
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,65,15,96,233 ; punpcklbw %xmm9,%xmm5
- DB 102,65,15,104,201 ; punpckhbw %xmm9,%xmm1
- DB 102,68,15,111,223 ; movdqa %xmm7,%xmm11
- DB 102,69,15,96,217 ; punpcklbw %xmm9,%xmm11
- DB 102,65,15,104,249 ; punpckhbw %xmm9,%xmm7
- DB 102,68,15,111,230 ; movdqa %xmm6,%xmm12
- DB 102,69,15,96,225 ; punpcklbw %xmm9,%xmm12
- DB 102,65,15,104,241 ; punpckhbw %xmm9,%xmm6
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,68,15,213,229 ; pmullw %xmm5,%xmm12
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,69,15,213,216 ; pmullw %xmm8,%xmm11
- DB 102,69,15,253,195 ; paddw %xmm11,%xmm8
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 102,65,15,253,236 ; paddw %xmm12,%xmm5
- DB 102,15,253,241 ; paddw %xmm1,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 102,15,252,236 ; paddb %xmm4,%xmm5
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,68,15,103,199 ; packuswb %xmm7,%xmm8
- DB 102,69,15,252,194 ; paddb %xmm10,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcin_sse2_8bit
-_sk_srcin_sse2_8bit LABEL PROC
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 242,15,112,195,231 ; pshuflw $0xe7,%xmm3,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,240,95 ; pshufhw $0x5f,%xmm0,%xmm6
- DB 242,15,112,194,231 ; pshuflw $0xe7,%xmm2,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,248,95 ; pshufhw $0x5f,%xmm0,%xmm7
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,65,15,96,193 ; punpcklbw %xmm9,%xmm0
- DB 102,69,15,104,193 ; punpckhbw %xmm9,%xmm8
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,65,15,96,225 ; punpcklbw %xmm9,%xmm4
- DB 102,65,15,104,201 ; punpckhbw %xmm9,%xmm1
- DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,65,15,96,233 ; punpcklbw %xmm9,%xmm5
- DB 102,65,15,104,249 ; punpckhbw %xmm9,%xmm7
- DB 102,68,15,111,214 ; movdqa %xmm6,%xmm10
- DB 102,69,15,96,209 ; punpcklbw %xmm9,%xmm10
- DB 102,65,15,104,241 ; punpckhbw %xmm9,%xmm6
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,68,15,213,212 ; pmullw %xmm4,%xmm10
- DB 102,65,15,213,248 ; pmullw %xmm8,%xmm7
- DB 102,15,213,232 ; pmullw %xmm0,%xmm5
- DB 102,15,253,197 ; paddw %xmm5,%xmm0
- DB 102,65,15,253,248 ; paddw %xmm8,%xmm7
- DB 102,65,15,253,226 ; paddw %xmm10,%xmm4
- DB 102,15,253,241 ; paddw %xmm1,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,230 ; packuswb %xmm6,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstin_sse2_8bit
-_sk_dstin_sse2_8bit LABEL PROC
- DB 242,15,112,201,231 ; pshuflw $0xe7,%xmm1,%xmm1
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,225,95 ; pshufhw $0x5f,%xmm1,%xmm4
- DB 242,15,112,192,231 ; pshuflw $0xe7,%xmm0,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,232,95 ; pshufhw $0x5f,%xmm0,%xmm5
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,96,254 ; punpcklbw %xmm6,%xmm7
- DB 102,68,15,104,198 ; punpckhbw %xmm6,%xmm8
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,68,15,111,211 ; movdqa %xmm3,%xmm10
- DB 102,68,15,96,214 ; punpcklbw %xmm6,%xmm10
- DB 102,68,15,104,206 ; punpckhbw %xmm6,%xmm9
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,96,198 ; punpcklbw %xmm6,%xmm0
- DB 102,15,104,238 ; punpckhbw %xmm6,%xmm5
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,96,206 ; punpcklbw %xmm6,%xmm1
- DB 102,15,104,230 ; punpckhbw %xmm6,%xmm4
- DB 102,65,15,213,225 ; pmullw %xmm9,%xmm4
- DB 102,65,15,213,202 ; pmullw %xmm10,%xmm1
- DB 102,65,15,213,232 ; pmullw %xmm8,%xmm5
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,65,15,253,232 ; paddw %xmm8,%xmm5
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,65,15,253,225 ; paddw %xmm9,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,204 ; packuswb %xmm4,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,197 ; packuswb %xmm5,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcout_sse2_8bit
-_sk_srcout_sse2_8bit LABEL PROC
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 242,15,112,194,231 ; pshuflw $0xe7,%xmm2,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,240,95 ; pshufhw $0x5f,%xmm0,%xmm6
- DB 242,15,112,195,231 ; pshuflw $0xe7,%xmm3,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,248,95 ; pshufhw $0x5f,%xmm0,%xmm7
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,239,248 ; pxor %xmm0,%xmm7
- DB 102,15,239,240 ; pxor %xmm0,%xmm6
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,65,15,96,193 ; punpcklbw %xmm9,%xmm0
- DB 102,69,15,104,193 ; punpckhbw %xmm9,%xmm8
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,65,15,96,233 ; punpcklbw %xmm9,%xmm5
- DB 102,65,15,104,201 ; punpckhbw %xmm9,%xmm1
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,65,15,96,225 ; punpcklbw %xmm9,%xmm4
- DB 102,65,15,104,241 ; punpckhbw %xmm9,%xmm6
- DB 102,68,15,111,215 ; movdqa %xmm7,%xmm10
- DB 102,69,15,96,209 ; punpcklbw %xmm9,%xmm10
- DB 102,65,15,104,249 ; punpckhbw %xmm9,%xmm7
- DB 102,15,213,249 ; pmullw %xmm1,%xmm7
- DB 102,68,15,213,213 ; pmullw %xmm5,%xmm10
- DB 102,65,15,213,240 ; pmullw %xmm8,%xmm6
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,253,196 ; paddw %xmm4,%xmm0
- DB 102,65,15,253,240 ; paddw %xmm8,%xmm6
- DB 102,65,15,253,234 ; paddw %xmm10,%xmm5
- DB 102,15,253,249 ; paddw %xmm1,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,239 ; packuswb %xmm7,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,198 ; packuswb %xmm6,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstout_sse2_8bit
-_sk_dstout_sse2_8bit LABEL PROC
- DB 242,15,112,192,231 ; pshuflw $0xe7,%xmm0,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,224,95 ; pshufhw $0x5f,%xmm0,%xmm4
- DB 242,15,112,193,231 ; pshuflw $0xe7,%xmm1,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,232,95 ; pshufhw $0x5f,%xmm0,%xmm5
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,239,232 ; pxor %xmm0,%xmm5
- DB 102,15,239,224 ; pxor %xmm0,%xmm4
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,96,254 ; punpcklbw %xmm6,%xmm7
- DB 102,68,15,104,198 ; punpckhbw %xmm6,%xmm8
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,68,15,111,211 ; movdqa %xmm3,%xmm10
- DB 102,68,15,96,214 ; punpcklbw %xmm6,%xmm10
- DB 102,68,15,104,206 ; punpckhbw %xmm6,%xmm9
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,96,198 ; punpcklbw %xmm6,%xmm0
- DB 102,15,104,230 ; punpckhbw %xmm6,%xmm4
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,96,206 ; punpcklbw %xmm6,%xmm1
- DB 102,15,104,238 ; punpckhbw %xmm6,%xmm5
- DB 102,65,15,213,233 ; pmullw %xmm9,%xmm5
- DB 102,65,15,213,202 ; pmullw %xmm10,%xmm1
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,65,15,253,233 ; paddw %xmm9,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,196 ; packuswb %xmm4,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_sse2_8bit
-_sk_srcover_sse2_8bit LABEL PROC
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,212,95 ; pshufhw $0x5f,%xmm4,%xmm10
- DB 242,15,112,232,231 ; pshuflw $0xe7,%xmm0,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,68,15,112,221,95 ; pshufhw $0x5f,%xmm5,%xmm11
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,68,15,111,226 ; movdqa %xmm2,%xmm12
- DB 102,69,15,96,224 ; punpcklbw %xmm8,%xmm12
- DB 102,69,15,104,200 ; punpckhbw %xmm8,%xmm9
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,252,203 ; paddb %xmm3,%xmm1
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,65,15,96,224 ; punpcklbw %xmm8,%xmm4
- DB 102,65,15,104,248 ; punpckhbw %xmm8,%xmm7
- DB 102,65,15,111,235 ; movdqa %xmm11,%xmm5
- DB 102,65,15,96,232 ; punpcklbw %xmm8,%xmm5
- DB 102,69,15,104,216 ; punpckhbw %xmm8,%xmm11
- DB 102,65,15,111,242 ; movdqa %xmm10,%xmm6
- DB 102,65,15,96,240 ; punpcklbw %xmm8,%xmm6
- DB 102,69,15,104,208 ; punpckhbw %xmm8,%xmm10
- DB 102,68,15,213,215 ; pmullw %xmm7,%xmm10
- DB 102,15,213,244 ; pmullw %xmm4,%xmm6
- DB 102,69,15,213,217 ; pmullw %xmm9,%xmm11
- DB 102,65,15,213,236 ; pmullw %xmm12,%xmm5
- DB 102,65,15,253,236 ; paddw %xmm12,%xmm5
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,15,253,244 ; paddw %xmm4,%xmm6
- DB 102,68,15,253,215 ; paddw %xmm7,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,65,15,103,242 ; packuswb %xmm10,%xmm6
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,65,15,103,235 ; packuswb %xmm11,%xmm5
- DB 102,15,248,206 ; psubb %xmm6,%xmm1
- DB 102,15,248,197 ; psubb %xmm5,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstover_sse2_8bit
-_sk_dstover_sse2_8bit LABEL PROC
- DB 242,15,112,227,231 ; pshuflw $0xe7,%xmm3,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm4
- DB 242,15,112,234,231 ; pshuflw $0xe7,%xmm2,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,237,95 ; pshufhw $0x5f,%xmm5,%xmm5
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,69,15,96,200 ; punpcklbw %xmm8,%xmm9
- DB 102,68,15,111,208 ; movdqa %xmm0,%xmm10
- DB 102,69,15,104,208 ; punpckhbw %xmm8,%xmm10
- DB 102,68,15,111,217 ; movdqa %xmm1,%xmm11
- DB 102,69,15,96,216 ; punpcklbw %xmm8,%xmm11
- DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
- DB 102,69,15,104,224 ; punpckhbw %xmm8,%xmm12
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,65,15,96,240 ; punpcklbw %xmm8,%xmm6
- DB 102,65,15,104,232 ; punpckhbw %xmm8,%xmm5
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,65,15,96,248 ; punpcklbw %xmm8,%xmm7
- DB 102,65,15,104,224 ; punpckhbw %xmm8,%xmm4
- DB 102,65,15,213,228 ; pmullw %xmm12,%xmm4
- DB 102,65,15,213,251 ; pmullw %xmm11,%xmm7
- DB 102,65,15,213,234 ; pmullw %xmm10,%xmm5
- DB 102,65,15,213,241 ; pmullw %xmm9,%xmm6
- DB 102,65,15,253,241 ; paddw %xmm9,%xmm6
- DB 102,65,15,253,234 ; paddw %xmm10,%xmm5
- DB 102,65,15,253,251 ; paddw %xmm11,%xmm7
- DB 102,65,15,253,228 ; paddw %xmm12,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,245 ; packuswb %xmm5,%xmm6
- DB 102,15,252,203 ; paddb %xmm3,%xmm1
- DB 102,15,248,207 ; psubb %xmm7,%xmm1
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,248,198 ; psubb %xmm6,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_modulate_sse2_8bit
-_sk_modulate_sse2_8bit LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
- DB 102,65,15,96,194 ; punpcklbw %xmm10,%xmm0
- DB 102,69,15,104,202 ; punpckhbw %xmm10,%xmm9
- DB 102,65,15,96,202 ; punpcklbw %xmm10,%xmm1
- DB 102,69,15,104,194 ; punpckhbw %xmm10,%xmm8
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,65,15,96,226 ; punpcklbw %xmm10,%xmm4
- DB 102,65,15,104,242 ; punpckhbw %xmm10,%xmm6
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,65,15,96,250 ; punpcklbw %xmm10,%xmm7
- DB 102,65,15,104,234 ; punpckhbw %xmm10,%xmm5
- DB 102,65,15,213,232 ; pmullw %xmm8,%xmm5
- DB 102,15,213,249 ; pmullw %xmm1,%xmm7
- DB 102,65,15,213,241 ; pmullw %xmm9,%xmm6
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,253,196 ; paddw %xmm4,%xmm0
- DB 102,65,15,253,241 ; paddw %xmm9,%xmm6
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,65,15,253,232 ; paddw %xmm8,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,198 ; packuswb %xmm6,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_multiply_sse2_8bit
-_sk_multiply_sse2_8bit LABEL PROC
- DB 72,131,236,24 ; sub $0x18,%rsp
- DB 102,68,15,111,243 ; movdqa %xmm3,%xmm14
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 242,15,112,227,231 ; pshuflw $0xe7,%xmm3,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,252,95 ; pshufhw $0x5f,%xmm4,%xmm7
- DB 242,65,15,112,230,231 ; pshuflw $0xe7,%xmm14,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,244,95 ; pshufhw $0x5f,%xmm4,%xmm6
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,239,240 ; pxor %xmm8,%xmm6
- DB 102,65,15,239,248 ; pxor %xmm8,%xmm7
- DB 102,69,15,239,237 ; pxor %xmm13,%xmm13
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 242,15,112,224,231 ; pshuflw $0xe7,%xmm0,%xmm4
- DB 102,68,15,111,216 ; movdqa %xmm0,%xmm11
- DB 102,69,15,96,221 ; punpcklbw %xmm13,%xmm11
- DB 102,69,15,104,205 ; punpckhbw %xmm13,%xmm9
- DB 102,68,15,111,209 ; movdqa %xmm1,%xmm10
- DB 242,15,112,193,231 ; pshuflw $0xe7,%xmm1,%xmm0
- DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
- DB 102,69,15,96,229 ; punpcklbw %xmm13,%xmm12
- DB 102,69,15,104,213 ; punpckhbw %xmm13,%xmm10
- DB 102,68,15,111,255 ; movdqa %xmm7,%xmm15
- DB 102,69,15,96,253 ; punpcklbw %xmm13,%xmm15
- DB 102,65,15,104,253 ; punpckhbw %xmm13,%xmm7
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,65,15,96,237 ; punpcklbw %xmm13,%xmm5
- DB 102,65,15,104,245 ; punpckhbw %xmm13,%xmm6
- DB 102,65,15,213,242 ; pmullw %xmm10,%xmm6
- DB 102,65,15,213,236 ; pmullw %xmm12,%xmm5
- DB 102,65,15,213,249 ; pmullw %xmm9,%xmm7
- DB 102,69,15,213,251 ; pmullw %xmm11,%xmm15
- DB 102,69,15,253,251 ; paddw %xmm11,%xmm15
- DB 102,65,15,253,249 ; paddw %xmm9,%xmm7
- DB 102,65,15,253,236 ; paddw %xmm12,%xmm5
- DB 102,65,15,253,242 ; paddw %xmm10,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,65,15,113,215,8 ; psrlw $0x8,%xmm15
- DB 102,68,15,103,255 ; packuswb %xmm7,%xmm15
- DB 243,15,112,204,231 ; pshufhw $0xe7,%xmm4,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,225,95 ; pshufhw $0x5f,%xmm1,%xmm4
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,200,95 ; pshufhw $0x5f,%xmm0,%xmm1
- DB 102,65,15,239,200 ; pxor %xmm8,%xmm1
- DB 102,65,15,239,224 ; pxor %xmm8,%xmm4
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,65,15,96,213 ; punpcklbw %xmm13,%xmm2
- DB 102,69,15,104,197 ; punpckhbw %xmm13,%xmm8
- DB 102,65,15,111,198 ; movdqa %xmm14,%xmm0
- DB 102,15,127,4,36 ; movdqa %xmm0,(%rsp)
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,65,15,96,245 ; punpcklbw %xmm13,%xmm6
- DB 102,69,15,104,245 ; punpckhbw %xmm13,%xmm14
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,65,15,96,197 ; punpcklbw %xmm13,%xmm0
- DB 102,65,15,104,229 ; punpckhbw %xmm13,%xmm4
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,65,15,96,253 ; punpcklbw %xmm13,%xmm7
- DB 102,65,15,104,205 ; punpckhbw %xmm13,%xmm1
- DB 102,65,15,213,206 ; pmullw %xmm14,%xmm1
- DB 102,15,213,254 ; pmullw %xmm6,%xmm7
- DB 102,15,253,254 ; paddw %xmm6,%xmm7
- DB 102,65,15,253,206 ; paddw %xmm14,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,249 ; packuswb %xmm1,%xmm7
- DB 102,15,252,253 ; paddb %xmm5,%xmm7
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,253,194 ; paddw %xmm2,%xmm0
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,196 ; packuswb %xmm4,%xmm0
- DB 102,65,15,252,199 ; paddb %xmm15,%xmm0
- DB 102,65,15,213,211 ; pmullw %xmm11,%xmm2
- DB 102,65,15,253,211 ; paddw %xmm11,%xmm2
- DB 102,69,15,213,193 ; pmullw %xmm9,%xmm8
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,65,15,213,244 ; pmullw %xmm12,%xmm6
- DB 102,65,15,253,244 ; paddw %xmm12,%xmm6
- DB 102,69,15,213,242 ; pmullw %xmm10,%xmm14
- DB 102,69,15,253,242 ; paddw %xmm10,%xmm14
- DB 102,65,15,113,214,8 ; psrlw $0x8,%xmm14
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,65,15,103,246 ; packuswb %xmm14,%xmm6
- DB 102,15,252,254 ; paddb %xmm6,%xmm7
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,65,15,103,208 ; packuswb %xmm8,%xmm2
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 15,40,28,36 ; movaps (%rsp),%xmm3
- DB 102,15,111,207 ; movdqa %xmm7,%xmm1
- DB 72,131,196,24 ; add $0x18,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_screen_sse2_8bit
-_sk_screen_sse2_8bit LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,15,118,255 ; pcmpeqd %xmm7,%xmm7
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,239,215 ; pxor %xmm7,%xmm10
- DB 102,15,239,248 ; pxor %xmm0,%xmm7
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,65,15,96,233 ; punpcklbw %xmm9,%xmm5
- DB 102,65,15,104,249 ; punpckhbw %xmm9,%xmm7
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,96,201 ; punpcklbw %xmm9,%xmm1
- DB 102,69,15,104,209 ; punpckhbw %xmm9,%xmm10
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,68,15,111,218 ; movdqa %xmm2,%xmm11
- DB 102,69,15,96,217 ; punpcklbw %xmm9,%xmm11
- DB 102,65,15,104,225 ; punpckhbw %xmm9,%xmm4
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,69,15,96,225 ; punpcklbw %xmm9,%xmm12
- DB 102,65,15,104,241 ; punpckhbw %xmm9,%xmm6
- DB 102,65,15,213,242 ; pmullw %xmm10,%xmm6
- DB 102,68,15,213,225 ; pmullw %xmm1,%xmm12
- DB 102,15,213,231 ; pmullw %xmm7,%xmm4
- DB 102,68,15,213,221 ; pmullw %xmm5,%xmm11
- DB 102,65,15,253,235 ; paddw %xmm11,%xmm5
- DB 102,15,253,231 ; paddw %xmm7,%xmm4
- DB 102,65,15,253,204 ; paddw %xmm12,%xmm1
- DB 102,65,15,253,242 ; paddw %xmm10,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,206 ; packuswb %xmm6,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,236 ; packuswb %xmm4,%xmm5
- DB 102,15,252,197 ; paddb %xmm5,%xmm0
- DB 102,65,15,252,200 ; paddb %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xor__sse2_8bit
-_sk_xor__sse2_8bit LABEL PROC
- DB 242,15,112,226,231 ; pshuflw $0xe7,%xmm2,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm12
- DB 242,15,112,227,231 ; pshuflw $0xe7,%xmm3,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm4
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,239,224 ; pxor %xmm8,%xmm4
- DB 102,69,15,239,224 ; pxor %xmm8,%xmm12
- DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 242,68,15,112,216,231 ; pshuflw $0xe7,%xmm0,%xmm11
- DB 102,65,15,96,194 ; punpcklbw %xmm10,%xmm0
- DB 102,69,15,104,202 ; punpckhbw %xmm10,%xmm9
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 242,68,15,112,233,231 ; pshuflw $0xe7,%xmm1,%xmm13
- DB 102,65,15,96,202 ; punpcklbw %xmm10,%xmm1
- DB 102,65,15,104,242 ; punpckhbw %xmm10,%xmm6
- DB 102,65,15,111,236 ; movdqa %xmm12,%xmm5
- DB 102,65,15,96,234 ; punpcklbw %xmm10,%xmm5
- DB 102,69,15,104,226 ; punpckhbw %xmm10,%xmm12
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,65,15,96,250 ; punpcklbw %xmm10,%xmm7
- DB 102,65,15,104,226 ; punpckhbw %xmm10,%xmm4
- DB 102,15,213,230 ; pmullw %xmm6,%xmm4
- DB 102,15,213,249 ; pmullw %xmm1,%xmm7
- DB 102,69,15,213,225 ; pmullw %xmm9,%xmm12
- DB 102,15,213,232 ; pmullw %xmm0,%xmm5
- DB 102,15,253,232 ; paddw %xmm0,%xmm5
- DB 102,69,15,253,225 ; paddw %xmm9,%xmm12
- DB 102,15,253,249 ; paddw %xmm1,%xmm7
- DB 102,15,253,230 ; paddw %xmm6,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,65,15,103,236 ; packuswb %xmm12,%xmm5
- DB 243,65,15,112,195,231 ; pshufhw $0xe7,%xmm11,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,224,95 ; pshufhw $0x5f,%xmm0,%xmm4
- DB 243,65,15,112,197,231 ; pshufhw $0xe7,%xmm13,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,240,95 ; pshufhw $0x5f,%xmm0,%xmm6
- DB 102,65,15,239,240 ; pxor %xmm8,%xmm6
- DB 102,65,15,239,224 ; pxor %xmm8,%xmm4
- DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,69,15,96,202 ; punpcklbw %xmm10,%xmm9
- DB 102,69,15,104,194 ; punpckhbw %xmm10,%xmm8
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,69,15,96,226 ; punpcklbw %xmm10,%xmm12
- DB 102,69,15,104,218 ; punpckhbw %xmm10,%xmm11
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,65,15,96,194 ; punpcklbw %xmm10,%xmm0
- DB 102,65,15,104,226 ; punpckhbw %xmm10,%xmm4
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,65,15,96,202 ; punpcklbw %xmm10,%xmm1
- DB 102,65,15,104,242 ; punpckhbw %xmm10,%xmm6
- DB 102,65,15,213,243 ; pmullw %xmm11,%xmm6
- DB 102,65,15,213,204 ; pmullw %xmm12,%xmm1
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,65,15,253,204 ; paddw %xmm12,%xmm1
- DB 102,65,15,253,243 ; paddw %xmm11,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,206 ; packuswb %xmm6,%xmm1
- DB 102,15,252,207 ; paddb %xmm7,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,196 ; packuswb %xmm4,%xmm0
- DB 102,15,252,197 ; paddb %xmm5,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_plus__sse2_8bit
-_sk_plus__sse2_8bit LABEL PROC
- DB 102,15,220,194 ; paddusb %xmm2,%xmm0
- DB 102,15,220,203 ; paddusb %xmm3,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_darken_sse2_8bit
-_sk_darken_sse2_8bit LABEL PROC
- DB 242,15,112,227,231 ; pshuflw $0xe7,%xmm3,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm4
- DB 242,15,112,234,231 ; pshuflw $0xe7,%xmm2,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,253,95 ; pshufhw $0x5f,%xmm5,%xmm7
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,65,15,96,240 ; punpcklbw %xmm8,%xmm6
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,69,15,104,200 ; punpckhbw %xmm8,%xmm9
- DB 102,68,15,111,217 ; movdqa %xmm1,%xmm11
- DB 102,69,15,96,216 ; punpcklbw %xmm8,%xmm11
- DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
- DB 102,69,15,104,224 ; punpckhbw %xmm8,%xmm12
- DB 102,68,15,111,215 ; movdqa %xmm7,%xmm10
- DB 102,69,15,96,208 ; punpcklbw %xmm8,%xmm10
- DB 102,65,15,104,248 ; punpckhbw %xmm8,%xmm7
- DB 102,68,15,111,236 ; movdqa %xmm4,%xmm13
- DB 102,69,15,96,232 ; punpcklbw %xmm8,%xmm13
- DB 102,65,15,104,224 ; punpckhbw %xmm8,%xmm4
- DB 102,65,15,213,228 ; pmullw %xmm12,%xmm4
- DB 102,69,15,213,235 ; pmullw %xmm11,%xmm13
- DB 102,65,15,213,249 ; pmullw %xmm9,%xmm7
- DB 102,68,15,213,214 ; pmullw %xmm6,%xmm10
- DB 102,68,15,253,214 ; paddw %xmm6,%xmm10
- DB 102,65,15,253,249 ; paddw %xmm9,%xmm7
- DB 102,69,15,253,235 ; paddw %xmm11,%xmm13
- DB 102,65,15,253,228 ; paddw %xmm12,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,65,15,113,213,8 ; psrlw $0x8,%xmm13
- DB 102,68,15,103,236 ; packuswb %xmm4,%xmm13
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,68,15,103,215 ; packuswb %xmm7,%xmm10
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,220,95 ; pshufhw $0x5f,%xmm4,%xmm11
- DB 242,15,112,224,231 ; pshuflw $0xe7,%xmm0,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm12
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,65,15,96,240 ; punpcklbw %xmm8,%xmm6
- DB 102,69,15,104,200 ; punpckhbw %xmm8,%xmm9
- DB 102,68,15,111,243 ; movdqa %xmm3,%xmm14
- DB 102,15,252,203 ; paddb %xmm3,%xmm1
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,65,15,96,232 ; punpcklbw %xmm8,%xmm5
- DB 102,69,15,104,240 ; punpckhbw %xmm8,%xmm14
- DB 102,65,15,111,228 ; movdqa %xmm12,%xmm4
- DB 102,65,15,96,224 ; punpcklbw %xmm8,%xmm4
- DB 102,69,15,104,224 ; punpckhbw %xmm8,%xmm12
- DB 102,65,15,111,251 ; movdqa %xmm11,%xmm7
- DB 102,65,15,96,248 ; punpcklbw %xmm8,%xmm7
- DB 102,69,15,104,216 ; punpckhbw %xmm8,%xmm11
- DB 102,69,15,213,222 ; pmullw %xmm14,%xmm11
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,69,15,213,225 ; pmullw %xmm9,%xmm12
- DB 102,15,213,230 ; pmullw %xmm6,%xmm4
- DB 102,15,253,230 ; paddw %xmm6,%xmm4
- DB 102,69,15,253,225 ; paddw %xmm9,%xmm12
- DB 102,15,253,253 ; paddw %xmm5,%xmm7
- DB 102,69,15,253,222 ; paddw %xmm14,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,65,15,103,251 ; packuswb %xmm11,%xmm7
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,65,15,103,228 ; packuswb %xmm12,%xmm4
- DB 102,68,15,222,212 ; pmaxub %xmm4,%xmm10
- DB 102,68,15,222,239 ; pmaxub %xmm7,%xmm13
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,65,15,248,245 ; psubb %xmm13,%xmm6
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,65,15,248,234 ; psubb %xmm10,%xmm5
- DB 102,15,248,207 ; psubb %xmm7,%xmm1
- DB 102,15,248,196 ; psubb %xmm4,%xmm0
- DB 102,15,111,37,213,142,0,0 ; movdqa 0x8ed5(%rip),%xmm4 # 34aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x166c>
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,223,248 ; pandn %xmm0,%xmm7
- DB 102,15,235,239 ; por %xmm7,%xmm5
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,15,223,225 ; pandn %xmm1,%xmm4
- DB 102,15,235,244 ; por %xmm4,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lighten_sse2_8bit
-_sk_lighten_sse2_8bit LABEL PROC
- DB 242,15,112,227,231 ; pshuflw $0xe7,%xmm3,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm4
- DB 242,15,112,234,231 ; pshuflw $0xe7,%xmm2,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,253,95 ; pshufhw $0x5f,%xmm5,%xmm7
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,65,15,96,240 ; punpcklbw %xmm8,%xmm6
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,69,15,104,200 ; punpckhbw %xmm8,%xmm9
- DB 102,68,15,111,217 ; movdqa %xmm1,%xmm11
- DB 102,69,15,96,216 ; punpcklbw %xmm8,%xmm11
- DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
- DB 102,69,15,104,224 ; punpckhbw %xmm8,%xmm12
- DB 102,68,15,111,215 ; movdqa %xmm7,%xmm10
- DB 102,69,15,96,208 ; punpcklbw %xmm8,%xmm10
- DB 102,65,15,104,248 ; punpckhbw %xmm8,%xmm7
- DB 102,68,15,111,236 ; movdqa %xmm4,%xmm13
- DB 102,69,15,96,232 ; punpcklbw %xmm8,%xmm13
- DB 102,65,15,104,224 ; punpckhbw %xmm8,%xmm4
- DB 102,65,15,213,228 ; pmullw %xmm12,%xmm4
- DB 102,69,15,213,235 ; pmullw %xmm11,%xmm13
- DB 102,65,15,213,249 ; pmullw %xmm9,%xmm7
- DB 102,68,15,213,214 ; pmullw %xmm6,%xmm10
- DB 102,68,15,253,214 ; paddw %xmm6,%xmm10
- DB 102,65,15,253,249 ; paddw %xmm9,%xmm7
- DB 102,69,15,253,235 ; paddw %xmm11,%xmm13
- DB 102,65,15,253,228 ; paddw %xmm12,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,65,15,113,213,8 ; psrlw $0x8,%xmm13
- DB 102,68,15,103,236 ; packuswb %xmm4,%xmm13
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,68,15,103,215 ; packuswb %xmm7,%xmm10
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,220,95 ; pshufhw $0x5f,%xmm4,%xmm11
- DB 242,15,112,224,231 ; pshuflw $0xe7,%xmm0,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm12
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,65,15,96,240 ; punpcklbw %xmm8,%xmm6
- DB 102,69,15,104,200 ; punpckhbw %xmm8,%xmm9
- DB 102,68,15,111,243 ; movdqa %xmm3,%xmm14
- DB 102,15,252,203 ; paddb %xmm3,%xmm1
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,65,15,96,232 ; punpcklbw %xmm8,%xmm5
- DB 102,69,15,104,240 ; punpckhbw %xmm8,%xmm14
- DB 102,65,15,111,228 ; movdqa %xmm12,%xmm4
- DB 102,65,15,96,224 ; punpcklbw %xmm8,%xmm4
- DB 102,69,15,104,224 ; punpckhbw %xmm8,%xmm12
- DB 102,65,15,111,251 ; movdqa %xmm11,%xmm7
- DB 102,65,15,96,248 ; punpcklbw %xmm8,%xmm7
- DB 102,69,15,104,216 ; punpckhbw %xmm8,%xmm11
- DB 102,69,15,213,222 ; pmullw %xmm14,%xmm11
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,69,15,213,225 ; pmullw %xmm9,%xmm12
- DB 102,15,213,230 ; pmullw %xmm6,%xmm4
- DB 102,15,253,230 ; paddw %xmm6,%xmm4
- DB 102,69,15,253,225 ; paddw %xmm9,%xmm12
- DB 102,15,253,253 ; paddw %xmm5,%xmm7
- DB 102,69,15,253,222 ; paddw %xmm14,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,65,15,103,251 ; packuswb %xmm11,%xmm7
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,65,15,103,228 ; packuswb %xmm12,%xmm4
- DB 102,68,15,218,212 ; pminub %xmm4,%xmm10
- DB 102,68,15,218,239 ; pminub %xmm7,%xmm13
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,65,15,248,245 ; psubb %xmm13,%xmm6
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,65,15,248,234 ; psubb %xmm10,%xmm5
- DB 102,15,248,207 ; psubb %xmm7,%xmm1
- DB 102,15,248,196 ; psubb %xmm4,%xmm0
- DB 102,15,111,37,233,140,0,0 ; movdqa 0x8ce9(%rip),%xmm4 # 34aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x166c>
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,223,248 ; pandn %xmm0,%xmm7
- DB 102,15,235,239 ; por %xmm7,%xmm5
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,15,223,225 ; pandn %xmm1,%xmm4
- DB 102,15,235,244 ; por %xmm4,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_exclusion_sse2_8bit
-_sk_exclusion_sse2_8bit LABEL PROC
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,69,15,96,200 ; punpcklbw %xmm8,%xmm9
- DB 102,68,15,111,208 ; movdqa %xmm0,%xmm10
- DB 102,69,15,104,208 ; punpckhbw %xmm8,%xmm10
- DB 102,68,15,111,217 ; movdqa %xmm1,%xmm11
- DB 102,69,15,96,216 ; punpcklbw %xmm8,%xmm11
- DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
- DB 102,69,15,104,224 ; punpckhbw %xmm8,%xmm12
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,65,15,96,240 ; punpcklbw %xmm8,%xmm6
- DB 102,65,15,104,224 ; punpckhbw %xmm8,%xmm4
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,252,203 ; paddb %xmm3,%xmm1
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,65,15,96,232 ; punpcklbw %xmm8,%xmm5
- DB 102,65,15,104,248 ; punpckhbw %xmm8,%xmm7
- DB 102,65,15,213,252 ; pmullw %xmm12,%xmm7
- DB 102,65,15,213,235 ; pmullw %xmm11,%xmm5
- DB 102,65,15,213,226 ; pmullw %xmm10,%xmm4
- DB 102,65,15,213,241 ; pmullw %xmm9,%xmm6
- DB 102,65,15,253,241 ; paddw %xmm9,%xmm6
- DB 102,65,15,253,226 ; paddw %xmm10,%xmm4
- DB 102,65,15,253,235 ; paddw %xmm11,%xmm5
- DB 102,65,15,253,252 ; paddw %xmm12,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,239 ; packuswb %xmm7,%xmm5
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,244 ; packuswb %xmm4,%xmm6
- DB 102,15,111,37,28,140,0,0 ; movdqa 0x8c1c(%rip),%xmm4 # 34aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x166c>
- DB 102,15,248,205 ; psubb %xmm5,%xmm1
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 102,15,248,205 ; psubb %xmm5,%xmm1
- DB 102,15,248,198 ; psubb %xmm6,%xmm0
- DB 102,15,248,196 ; psubb %xmm4,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_difference_sse2_8bit
-_sk_difference_sse2_8bit LABEL PROC
- DB 242,15,112,227,231 ; pshuflw $0xe7,%xmm3,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm4
- DB 242,15,112,234,231 ; pshuflw $0xe7,%xmm2,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,253,95 ; pshufhw $0x5f,%xmm5,%xmm7
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,65,15,96,232 ; punpcklbw %xmm8,%xmm5
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,65,15,104,240 ; punpckhbw %xmm8,%xmm6
- DB 102,68,15,111,201 ; movdqa %xmm1,%xmm9
- DB 102,69,15,96,200 ; punpcklbw %xmm8,%xmm9
- DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
- DB 102,69,15,104,224 ; punpckhbw %xmm8,%xmm12
- DB 102,68,15,111,215 ; movdqa %xmm7,%xmm10
- DB 102,69,15,96,208 ; punpcklbw %xmm8,%xmm10
- DB 102,65,15,104,248 ; punpckhbw %xmm8,%xmm7
- DB 102,68,15,111,220 ; movdqa %xmm4,%xmm11
- DB 102,69,15,96,216 ; punpcklbw %xmm8,%xmm11
- DB 102,65,15,104,224 ; punpckhbw %xmm8,%xmm4
- DB 102,65,15,213,228 ; pmullw %xmm12,%xmm4
- DB 102,69,15,213,217 ; pmullw %xmm9,%xmm11
- DB 102,15,213,254 ; pmullw %xmm6,%xmm7
- DB 102,68,15,213,213 ; pmullw %xmm5,%xmm10
- DB 102,68,15,253,213 ; paddw %xmm5,%xmm10
- DB 102,15,253,254 ; paddw %xmm6,%xmm7
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,65,15,253,228 ; paddw %xmm12,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,68,15,103,220 ; packuswb %xmm4,%xmm11
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,68,15,103,215 ; packuswb %xmm7,%xmm10
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm12
- DB 242,15,112,224,231 ; pshuflw $0xe7,%xmm0,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,236,95 ; pshufhw $0x5f,%xmm4,%xmm13
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,65,15,96,232 ; punpcklbw %xmm8,%xmm5
- DB 102,69,15,104,200 ; punpckhbw %xmm8,%xmm9
- DB 102,68,15,111,243 ; movdqa %xmm3,%xmm14
- DB 102,15,252,203 ; paddb %xmm3,%xmm1
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,65,15,96,248 ; punpcklbw %xmm8,%xmm7
- DB 102,69,15,104,240 ; punpckhbw %xmm8,%xmm14
- DB 102,65,15,111,229 ; movdqa %xmm13,%xmm4
- DB 102,65,15,96,224 ; punpcklbw %xmm8,%xmm4
- DB 102,69,15,104,232 ; punpckhbw %xmm8,%xmm13
- DB 102,65,15,111,244 ; movdqa %xmm12,%xmm6
- DB 102,65,15,96,240 ; punpcklbw %xmm8,%xmm6
- DB 102,69,15,104,224 ; punpckhbw %xmm8,%xmm12
- DB 102,69,15,213,230 ; pmullw %xmm14,%xmm12
- DB 102,15,213,247 ; pmullw %xmm7,%xmm6
- DB 102,69,15,213,233 ; pmullw %xmm9,%xmm13
- DB 102,15,213,229 ; pmullw %xmm5,%xmm4
- DB 102,15,253,229 ; paddw %xmm5,%xmm4
- DB 102,69,15,253,233 ; paddw %xmm9,%xmm13
- DB 102,15,253,247 ; paddw %xmm7,%xmm6
- DB 102,69,15,253,230 ; paddw %xmm14,%xmm12
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,65,15,103,244 ; packuswb %xmm12,%xmm6
- DB 102,65,15,218,243 ; pminub %xmm11,%xmm6
- DB 102,65,15,113,213,8 ; psrlw $0x8,%xmm13
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,65,15,103,229 ; packuswb %xmm13,%xmm4
- DB 102,65,15,218,226 ; pminub %xmm10,%xmm4
- DB 102,15,111,45,89,138,0,0 ; movdqa 0x8a59(%rip),%xmm5 # 34aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x166c>
- DB 102,15,248,206 ; psubb %xmm6,%xmm1
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 102,15,248,206 ; psubb %xmm6,%xmm1
- DB 102,15,248,196 ; psubb %xmm4,%xmm0
- DB 102,15,248,197 ; psubb %xmm5,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hardlight_sse2_8bit
-_sk_hardlight_sse2_8bit LABEL PROC
- DB 72,129,236,24,1,0,0 ; sub $0x118,%rsp
- DB 102,68,15,111,250 ; movdqa %xmm2,%xmm15
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,96,196 ; punpcklbw %xmm4,%xmm0
- DB 102,15,127,132,36,176,0,0,0 ; movdqa %xmm0,0xb0(%rsp)
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,96,196 ; punpcklbw %xmm4,%xmm0
- DB 102,15,127,68,36,64 ; movdqa %xmm0,0x40(%rsp)
- DB 242,15,112,198,231 ; pshuflw $0xe7,%xmm6,%xmm0
- DB 102,15,104,244 ; punpckhbw %xmm4,%xmm6
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,68,15,112,192,95 ; pshufhw $0x5f,%xmm0,%xmm8
- DB 242,15,112,193,231 ; pshuflw $0xe7,%xmm1,%xmm0
- DB 102,15,104,204 ; punpckhbw %xmm4,%xmm1
- DB 102,68,15,111,241 ; movdqa %xmm1,%xmm14
- DB 102,68,15,127,180,36,160,0,0,0 ; movdqa %xmm14,0xa0(%rsp)
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,200,95 ; pshufhw $0x5f,%xmm0,%xmm1
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,104,196 ; punpckhbw %xmm4,%xmm0
- DB 102,15,127,68,36,80 ; movdqa %xmm0,0x50(%rsp)
- DB 102,15,96,204 ; punpcklbw %xmm4,%xmm1
- DB 102,15,127,76,36,48 ; movdqa %xmm1,0x30(%rsp)
- DB 102,69,15,111,232 ; movdqa %xmm8,%xmm13
- DB 102,68,15,104,236 ; punpckhbw %xmm4,%xmm13
- DB 102,68,15,127,108,36,16 ; movdqa %xmm13,0x10(%rsp)
- DB 102,68,15,96,196 ; punpcklbw %xmm4,%xmm8
- DB 102,68,15,127,4,36 ; movdqa %xmm8,(%rsp)
- DB 102,68,15,127,188,36,0,1,0,0 ; movdqa %xmm15,0x100(%rsp)
- DB 102,65,15,111,207 ; movdqa %xmm15,%xmm1
- DB 242,65,15,112,199,231 ; pshuflw $0xe7,%xmm15,%xmm0
- DB 102,68,15,96,252 ; punpcklbw %xmm4,%xmm15
- DB 102,15,104,204 ; punpckhbw %xmm4,%xmm1
- DB 102,15,127,76,36,112 ; movdqa %xmm1,0x70(%rsp)
- DB 102,15,127,156,36,240,0,0,0 ; movdqa %xmm3,0xf0(%rsp)
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,68,15,96,228 ; punpcklbw %xmm4,%xmm12
- DB 102,68,15,127,164,36,128,0,0,0 ; movdqa %xmm12,0x80(%rsp)
- DB 102,15,104,252 ; punpckhbw %xmm4,%xmm7
- DB 102,15,127,188,36,144,0,0,0 ; movdqa %xmm7,0x90(%rsp)
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,68,15,112,200,95 ; pshufhw $0x5f,%xmm0,%xmm9
- DB 242,15,112,203,231 ; pshuflw $0xe7,%xmm3,%xmm1
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,68,15,112,217,95 ; pshufhw $0x5f,%xmm1,%xmm11
- DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
- DB 102,15,104,196 ; punpckhbw %xmm4,%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,127,76,36,32 ; movdqa %xmm1,0x20(%rsp)
- DB 102,68,15,96,220 ; punpcklbw %xmm4,%xmm11
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,15,104,220 ; punpckhbw %xmm4,%xmm3
- DB 102,68,15,96,204 ; punpcklbw %xmm4,%xmm9
- DB 102,68,15,111,21,144,128,0,0 ; movdqa 0x8090(%rip),%xmm10 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,65,15,111,209 ; movdqa %xmm9,%xmm2
- DB 102,65,15,239,210 ; pxor %xmm10,%xmm2
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,65,15,239,226 ; pxor %xmm10,%xmm4
- DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
- DB 102,65,15,239,194 ; pxor %xmm10,%xmm0
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,65,15,239,234 ; pxor %xmm10,%xmm5
- DB 102,65,15,213,238 ; pmullw %xmm14,%xmm5
- DB 102,65,15,111,200 ; movdqa %xmm8,%xmm1
- DB 102,65,15,239,202 ; pxor %xmm10,%xmm1
- DB 102,69,15,239,234 ; pxor %xmm10,%xmm13
- DB 102,68,15,111,68,36,48 ; movdqa 0x30(%rsp),%xmm8
- DB 102,69,15,239,194 ; pxor %xmm10,%xmm8
- DB 102,68,15,239,84,36,80 ; pxor 0x50(%rsp),%xmm10
- DB 102,68,15,213,215 ; pmullw %xmm7,%xmm10
- DB 102,68,15,253,213 ; paddw %xmm5,%xmm10
- DB 102,15,213,68,36,64 ; pmullw 0x40(%rsp),%xmm0
- DB 102,69,15,213,196 ; pmullw %xmm12,%xmm8
- DB 102,68,15,253,192 ; paddw %xmm0,%xmm8
- DB 102,68,15,127,132,36,224,0,0,0 ; movdqa %xmm8,0xe0(%rsp)
- DB 102,15,213,230 ; pmullw %xmm6,%xmm4
- DB 102,15,111,108,36,112 ; movdqa 0x70(%rsp),%xmm5
- DB 102,68,15,213,237 ; pmullw %xmm5,%xmm13
- DB 102,68,15,253,236 ; paddw %xmm4,%xmm13
- DB 102,68,15,127,172,36,208,0,0,0 ; movdqa %xmm13,0xd0(%rsp)
- DB 102,68,15,111,164,36,176,0,0,0 ; movdqa 0xb0(%rsp),%xmm12
- DB 102,65,15,213,212 ; pmullw %xmm12,%xmm2
- DB 102,65,15,213,207 ; pmullw %xmm15,%xmm1
- DB 102,15,253,202 ; paddw %xmm2,%xmm1
- DB 102,15,127,140,36,192,0,0,0 ; movdqa %xmm1,0xc0(%rsp)
- DB 102,69,15,111,196 ; movdqa %xmm12,%xmm8
- DB 102,65,15,111,204 ; movdqa %xmm12,%xmm1
- DB 102,69,15,253,192 ; paddw %xmm8,%xmm8
- DB 102,15,111,4,36 ; movdqa (%rsp),%xmm0
- DB 102,68,15,101,192 ; pcmpgtw %xmm0,%xmm8
- DB 102,69,15,111,233 ; movdqa %xmm9,%xmm13
- DB 102,69,15,249,207 ; psubw %xmm15,%xmm9
- DB 102,68,15,213,249 ; pmullw %xmm1,%xmm15
- DB 102,68,15,127,124,36,96 ; movdqa %xmm15,0x60(%rsp)
- DB 102,68,15,213,232 ; pmullw %xmm0,%xmm13
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,15,127,4,36 ; movdqa %xmm0,(%rsp)
- DB 102,68,15,111,206 ; movdqa %xmm6,%xmm9
- DB 102,69,15,253,201 ; paddw %xmm9,%xmm9
- DB 102,15,111,68,36,16 ; movdqa 0x10(%rsp),%xmm0
- DB 102,68,15,101,200 ; pcmpgtw %xmm0,%xmm9
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,249,221 ; psubw %xmm5,%xmm3
- DB 102,68,15,111,245 ; movdqa %xmm5,%xmm14
- DB 102,68,15,213,246 ; pmullw %xmm6,%xmm14
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,15,249,198 ; psubw %xmm6,%xmm0
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,127,68,36,16 ; movdqa %xmm0,0x10(%rsp)
- DB 102,15,111,92,36,64 ; movdqa 0x40(%rsp),%xmm3
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,253,237 ; paddw %xmm5,%xmm5
- DB 102,15,111,68,36,48 ; movdqa 0x30(%rsp),%xmm0
- DB 102,15,101,232 ; pcmpgtw %xmm0,%xmm5
- DB 102,65,15,111,243 ; movdqa %xmm11,%xmm6
- DB 102,68,15,111,188,36,128,0,0,0 ; movdqa 0x80(%rsp),%xmm15
- DB 102,69,15,249,223 ; psubw %xmm15,%xmm11
- DB 102,68,15,213,251 ; pmullw %xmm3,%xmm15
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,15,249,195 ; psubw %xmm3,%xmm0
- DB 102,65,15,213,195 ; pmullw %xmm11,%xmm0
- DB 102,68,15,111,216 ; movdqa %xmm0,%xmm11
- DB 102,15,111,148,36,160,0,0,0 ; movdqa 0xa0(%rsp),%xmm2
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,111,68,36,80 ; movdqa 0x50(%rsp),%xmm0
- DB 102,15,101,224 ; pcmpgtw %xmm0,%xmm4
- DB 102,15,111,76,36,32 ; movdqa 0x20(%rsp),%xmm1
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,68,15,111,164,36,144,0,0,0 ; movdqa 0x90(%rsp),%xmm12
- DB 102,65,15,249,204 ; psubw %xmm12,%xmm1
- DB 102,15,127,76,36,32 ; movdqa %xmm1,0x20(%rsp)
- DB 102,68,15,213,226 ; pmullw %xmm2,%xmm12
- DB 102,15,213,216 ; pmullw %xmm0,%xmm3
- DB 102,15,249,194 ; psubw %xmm2,%xmm0
- DB 102,15,213,68,36,32 ; pmullw 0x20(%rsp),%xmm0
- DB 102,15,111,12,36 ; movdqa (%rsp),%xmm1
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,68,15,249,233 ; psubw %xmm1,%xmm13
- DB 102,15,111,76,36,16 ; movdqa 0x10(%rsp),%xmm1
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,15,249,249 ; psubw %xmm1,%xmm7
- DB 102,69,15,253,219 ; paddw %xmm11,%xmm11
- DB 102,65,15,249,243 ; psubw %xmm11,%xmm6
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,249,216 ; psubw %xmm0,%xmm3
- DB 102,15,111,68,36,96 ; movdqa 0x60(%rsp),%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,69,15,219,232 ; pand %xmm8,%xmm13
- DB 102,68,15,223,192 ; pandn %xmm0,%xmm8
- DB 102,69,15,235,197 ; por %xmm13,%xmm8
- DB 102,69,15,253,246 ; paddw %xmm14,%xmm14
- DB 102,65,15,219,249 ; pand %xmm9,%xmm7
- DB 102,69,15,223,206 ; pandn %xmm14,%xmm9
- DB 102,68,15,235,207 ; por %xmm7,%xmm9
- DB 102,69,15,253,255 ; paddw %xmm15,%xmm15
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 102,65,15,223,239 ; pandn %xmm15,%xmm5
- DB 102,15,235,238 ; por %xmm6,%xmm5
- DB 102,69,15,253,228 ; paddw %xmm12,%xmm12
- DB 102,15,219,220 ; pand %xmm4,%xmm3
- DB 102,65,15,223,228 ; pandn %xmm12,%xmm4
- DB 102,15,235,227 ; por %xmm3,%xmm4
- DB 102,15,111,5,158,134,0,0 ; movdqa 0x869e(%rip),%xmm0 # 34ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x167c>
- DB 102,15,111,140,36,192,0,0,0 ; movdqa 0xc0(%rsp),%xmm1
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,68,15,253,193 ; paddw %xmm1,%xmm8
- DB 102,15,111,140,36,208,0,0,0 ; movdqa 0xd0(%rsp),%xmm1
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,111,156,36,224,0,0,0 ; movdqa 0xe0(%rsp),%xmm3
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,15,253,235 ; paddw %xmm3,%xmm5
- DB 102,68,15,253,208 ; paddw %xmm0,%xmm10
- DB 102,68,15,253,212 ; paddw %xmm4,%xmm10
- DB 102,15,111,5,103,134,0,0 ; movdqa 0x8667(%rip),%xmm0 # 34ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x168c>
- DB 102,68,15,228,208 ; pmulhuw %xmm0,%xmm10
- DB 102,65,15,113,210,7 ; psrlw $0x7,%xmm10
- DB 102,15,228,232 ; pmulhuw %xmm0,%xmm5
- DB 102,15,113,213,7 ; psrlw $0x7,%xmm5
- DB 102,65,15,103,234 ; packuswb %xmm10,%xmm5
- DB 102,15,228,200 ; pmulhuw %xmm0,%xmm1
- DB 102,68,15,228,192 ; pmulhuw %xmm0,%xmm8
- DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,65,15,113,208,7 ; psrlw $0x7,%xmm8
- DB 102,68,15,103,193 ; packuswb %xmm1,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,148,36,0,1,0,0 ; movaps 0x100(%rsp),%xmm2
- DB 15,40,156,36,240,0,0,0 ; movaps 0xf0(%rsp),%xmm3
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 72,129,196,24,1,0,0 ; add $0x118,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_overlay_sse2_8bit
-_sk_overlay_sse2_8bit LABEL PROC
- DB 72,129,236,8,1,0,0 ; sub $0x108,%rsp
- DB 102,68,15,111,242 ; movdqa %xmm2,%xmm14
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,96,229 ; punpcklbw %xmm5,%xmm4
- DB 102,15,127,36,36 ; movdqa %xmm4,(%rsp)
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,96,229 ; punpcklbw %xmm5,%xmm4
- DB 102,15,127,100,36,48 ; movdqa %xmm4,0x30(%rsp)
- DB 242,15,112,224,231 ; pshuflw $0xe7,%xmm0,%xmm4
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,127,132,36,144,0,0,0 ; movdqa %xmm0,0x90(%rsp)
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,68,15,112,252,95 ; pshufhw $0x5f,%xmm4,%xmm15
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 102,15,104,205 ; punpckhbw %xmm5,%xmm1
- DB 102,68,15,111,209 ; movdqa %xmm1,%xmm10
- DB 102,68,15,127,148,36,160,0,0,0 ; movdqa %xmm10,0xa0(%rsp)
- DB 243,15,112,204,231 ; pshufhw $0xe7,%xmm4,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,68,15,112,217,95 ; pshufhw $0x5f,%xmm1,%xmm11
- DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,127,68,36,32 ; movdqa %xmm0,0x20(%rsp)
- DB 102,68,15,96,221 ; punpcklbw %xmm5,%xmm11
- DB 102,68,15,127,156,36,128,0,0,0 ; movdqa %xmm11,0x80(%rsp)
- DB 102,65,15,111,207 ; movdqa %xmm15,%xmm1
- DB 102,15,104,205 ; punpckhbw %xmm5,%xmm1
- DB 102,68,15,111,233 ; movdqa %xmm1,%xmm13
- DB 102,68,15,127,108,36,96 ; movdqa %xmm13,0x60(%rsp)
- DB 102,68,15,96,253 ; punpcklbw %xmm5,%xmm15
- DB 102,68,15,127,180,36,240,0,0,0 ; movdqa %xmm14,0xf0(%rsp)
- DB 102,65,15,111,198 ; movdqa %xmm14,%xmm0
- DB 242,65,15,112,206,231 ; pshuflw $0xe7,%xmm14,%xmm1
- DB 102,68,15,96,245 ; punpcklbw %xmm5,%xmm14
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,127,68,36,64 ; movdqa %xmm0,0x40(%rsp)
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,127,148,36,224,0,0,0 ; movdqa %xmm2,0xe0(%rsp)
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,68,15,96,205 ; punpcklbw %xmm5,%xmm9
- DB 102,15,104,221 ; punpckhbw %xmm5,%xmm3
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,127,68,36,112 ; movdqa %xmm0,0x70(%rsp)
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,217,95 ; pshufhw $0x5f,%xmm1,%xmm3
- DB 242,15,112,202,231 ; pshuflw $0xe7,%xmm2,%xmm1
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,225,95 ; pshufhw $0x5f,%xmm1,%xmm4
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,104,205 ; punpckhbw %xmm5,%xmm1
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,68,15,127,68,36,16 ; movdqa %xmm8,0x10(%rsp)
- DB 102,15,96,229 ; punpcklbw %xmm5,%xmm4
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,68,15,104,229 ; punpckhbw %xmm5,%xmm12
- DB 102,15,96,221 ; punpcklbw %xmm5,%xmm3
- DB 102,15,111,53,70,124,0,0 ; movdqa 0x7c46(%rip),%xmm6 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,239,214 ; pxor %xmm6,%xmm2
- DB 102,65,15,111,252 ; movdqa %xmm12,%xmm7
- DB 102,15,239,254 ; pxor %xmm6,%xmm7
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,239,206 ; pxor %xmm6,%xmm1
- DB 102,65,15,111,232 ; movdqa %xmm8,%xmm5
- DB 102,15,239,238 ; pxor %xmm6,%xmm5
- DB 102,65,15,213,234 ; pmullw %xmm10,%xmm5
- DB 102,69,15,111,199 ; movdqa %xmm15,%xmm8
- DB 102,68,15,239,198 ; pxor %xmm6,%xmm8
- DB 102,69,15,111,213 ; movdqa %xmm13,%xmm10
- DB 102,68,15,239,214 ; pxor %xmm6,%xmm10
- DB 102,68,15,239,222 ; pxor %xmm6,%xmm11
- DB 102,15,239,116,36,32 ; pxor 0x20(%rsp),%xmm6
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,15,253,245 ; paddw %xmm5,%xmm6
- DB 102,15,213,76,36,48 ; pmullw 0x30(%rsp),%xmm1
- DB 102,69,15,213,217 ; pmullw %xmm9,%xmm11
- DB 102,68,15,253,217 ; paddw %xmm1,%xmm11
- DB 102,68,15,127,156,36,176,0,0,0 ; movdqa %xmm11,0xb0(%rsp)
- DB 102,15,111,132,36,144,0,0,0 ; movdqa 0x90(%rsp),%xmm0
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,15,111,108,36,64 ; movdqa 0x40(%rsp),%xmm5
- DB 102,68,15,213,213 ; pmullw %xmm5,%xmm10
- DB 102,68,15,253,215 ; paddw %xmm7,%xmm10
- DB 102,68,15,127,148,36,208,0,0,0 ; movdqa %xmm10,0xd0(%rsp)
- DB 102,15,111,12,36 ; movdqa (%rsp),%xmm1
- DB 102,15,213,209 ; pmullw %xmm1,%xmm2
- DB 102,69,15,213,198 ; pmullw %xmm14,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,68,15,127,132,36,192,0,0,0 ; movdqa %xmm8,0xc0(%rsp)
- DB 102,65,15,111,214 ; movdqa %xmm14,%xmm2
- DB 102,15,253,210 ; paddw %xmm2,%xmm2
- DB 102,15,101,211 ; pcmpgtw %xmm3,%xmm2
- DB 102,15,127,84,36,80 ; movdqa %xmm2,0x50(%rsp)
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,65,15,249,222 ; psubw %xmm14,%xmm3
- DB 102,68,15,213,241 ; pmullw %xmm1,%xmm14
- DB 102,69,15,213,223 ; pmullw %xmm15,%xmm11
- DB 102,68,15,249,249 ; psubw %xmm1,%xmm15
- DB 102,68,15,213,251 ; pmullw %xmm3,%xmm15
- DB 102,68,15,127,60,36 ; movdqa %xmm15,(%rsp)
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,65,15,101,220 ; pcmpgtw %xmm12,%xmm3
- DB 102,69,15,111,196 ; movdqa %xmm12,%xmm8
- DB 102,68,15,249,229 ; psubw %xmm5,%xmm12
- DB 102,15,213,232 ; pmullw %xmm0,%xmm5
- DB 102,68,15,111,108,36,96 ; movdqa 0x60(%rsp),%xmm13
- DB 102,69,15,213,197 ; pmullw %xmm13,%xmm8
- DB 102,68,15,249,232 ; psubw %xmm0,%xmm13
- DB 102,69,15,213,236 ; pmullw %xmm12,%xmm13
- DB 102,69,15,111,249 ; movdqa %xmm9,%xmm15
- DB 102,69,15,253,255 ; paddw %xmm15,%xmm15
- DB 102,68,15,101,252 ; pcmpgtw %xmm4,%xmm15
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,65,15,249,225 ; psubw %xmm9,%xmm4
- DB 102,69,15,111,209 ; movdqa %xmm9,%xmm10
- DB 102,15,111,68,36,48 ; movdqa 0x30(%rsp),%xmm0
- DB 102,68,15,213,208 ; pmullw %xmm0,%xmm10
- DB 102,15,111,188,36,128,0,0,0 ; movdqa 0x80(%rsp),%xmm7
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,15,249,248 ; psubw %xmm0,%xmm7
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,68,15,111,76,36,112 ; movdqa 0x70(%rsp),%xmm9
- DB 102,65,15,111,225 ; movdqa %xmm9,%xmm4
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,111,68,36,16 ; movdqa 0x10(%rsp),%xmm0
- DB 102,15,101,224 ; pcmpgtw %xmm0,%xmm4
- DB 102,68,15,111,224 ; movdqa %xmm0,%xmm12
- DB 102,65,15,249,193 ; psubw %xmm9,%xmm0
- DB 102,15,127,68,36,16 ; movdqa %xmm0,0x10(%rsp)
- DB 102,15,111,148,36,160,0,0,0 ; movdqa 0xa0(%rsp),%xmm2
- DB 102,68,15,213,202 ; pmullw %xmm2,%xmm9
- DB 102,15,111,68,36,32 ; movdqa 0x20(%rsp),%xmm0
- DB 102,68,15,213,224 ; pmullw %xmm0,%xmm12
- DB 102,15,249,194 ; psubw %xmm2,%xmm0
- DB 102,15,213,68,36,16 ; pmullw 0x10(%rsp),%xmm0
- DB 102,15,111,20,36 ; movdqa (%rsp),%xmm2
- DB 102,15,253,210 ; paddw %xmm2,%xmm2
- DB 102,68,15,249,218 ; psubw %xmm2,%xmm11
- DB 102,69,15,253,237 ; paddw %xmm13,%xmm13
- DB 102,69,15,249,197 ; psubw %xmm13,%xmm8
- DB 102,15,253,255 ; paddw %xmm7,%xmm7
- DB 102,15,249,207 ; psubw %xmm7,%xmm1
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,68,15,249,224 ; psubw %xmm0,%xmm12
- DB 102,69,15,253,246 ; paddw %xmm14,%xmm14
- DB 102,15,111,68,36,80 ; movdqa 0x50(%rsp),%xmm0
- DB 102,68,15,219,216 ; pand %xmm0,%xmm11
- DB 102,65,15,223,198 ; pandn %xmm14,%xmm0
- DB 102,68,15,235,216 ; por %xmm0,%xmm11
- DB 102,15,253,237 ; paddw %xmm5,%xmm5
- DB 102,68,15,219,195 ; pand %xmm3,%xmm8
- DB 102,15,223,221 ; pandn %xmm5,%xmm3
- DB 102,65,15,235,216 ; por %xmm8,%xmm3
- DB 102,69,15,253,210 ; paddw %xmm10,%xmm10
- DB 102,65,15,219,207 ; pand %xmm15,%xmm1
- DB 102,69,15,223,250 ; pandn %xmm10,%xmm15
- DB 102,65,15,235,207 ; por %xmm15,%xmm1
- DB 102,69,15,253,201 ; paddw %xmm9,%xmm9
- DB 102,68,15,219,228 ; pand %xmm4,%xmm12
- DB 102,65,15,223,225 ; pandn %xmm9,%xmm4
- DB 102,65,15,235,228 ; por %xmm12,%xmm4
- DB 102,15,111,5,115,130,0,0 ; movdqa 0x8273(%rip),%xmm0 # 34ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x167c>
- DB 102,15,111,148,36,192,0,0,0 ; movdqa 0xc0(%rsp),%xmm2
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,65,15,253,211 ; paddw %xmm11,%xmm2
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,111,148,36,208,0,0,0 ; movdqa 0xd0(%rsp),%xmm2
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,15,253,211 ; paddw %xmm3,%xmm2
- DB 102,15,111,156,36,176,0,0,0 ; movdqa 0xb0(%rsp),%xmm3
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,15,253,217 ; paddw %xmm1,%xmm3
- DB 102,15,253,240 ; paddw %xmm0,%xmm6
- DB 102,15,253,244 ; paddw %xmm4,%xmm6
- DB 102,15,111,5,59,130,0,0 ; movdqa 0x823b(%rip),%xmm0 # 34ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x168c>
- DB 102,15,228,240 ; pmulhuw %xmm0,%xmm6
- DB 102,15,113,214,7 ; psrlw $0x7,%xmm6
- DB 102,15,228,216 ; pmulhuw %xmm0,%xmm3
- DB 102,15,113,211,7 ; psrlw $0x7,%xmm3
- DB 102,15,103,222 ; packuswb %xmm6,%xmm3
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,228,208 ; pmulhuw %xmm0,%xmm2
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 102,15,228,216 ; pmulhuw %xmm0,%xmm3
- DB 102,15,113,210,7 ; psrlw $0x7,%xmm2
- DB 102,15,113,211,7 ; psrlw $0x7,%xmm3
- DB 102,15,103,218 ; packuswb %xmm2,%xmm3
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,148,36,240,0,0,0 ; movaps 0xf0(%rsp),%xmm2
- DB 15,40,156,36,224,0,0,0 ; movaps 0xe0(%rsp),%xmm3
- DB 72,129,196,8,1,0,0 ; add $0x108,%rsp
- DB 255,224 ; jmpq *%rax
-
PUBLIC _sk_start_pipeline_hsw_lowp
_sk_start_pipeline_hsw_lowp LABEL PROC
DB 85 ; push %rbp
@@ -42671,13 +33173,13 @@ _sk_start_pipeline_hsw_lowp LABEL PROC
DB 73,137,246 ; mov %rsi,%r14
DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
DB 76,57,203 ; cmp %r9,%rbx
- DB 15,131,169,0,0,0 ; jae 2ca04 <_sk_start_pipeline_hsw_lowp+0x12c>
+ DB 15,131,169,0,0,0 ; jae 23088 <_sk_start_pipeline_hsw_lowp+0x12c>
DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
DB 72,141,64,16 ; lea 0x10(%rax),%rax
DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 119,70 ; ja 2c9c3 <_sk_start_pipeline_hsw_lowp+0xeb>
+ DB 119,70 ; ja 23047 <_sk_start_pipeline_hsw_lowp+0xeb>
DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
DB 49,255 ; xor %edi,%edi
DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
@@ -42696,10 +33198,10 @@ _sk_start_pipeline_hsw_lowp LABEL PROC
DB 73,131,196,32 ; add $0x20,%r12
DB 77,57,252 ; cmp %r15,%r12
DB 73,137,212 ; mov %rdx,%r12
- DB 118,193 ; jbe 2c984 <_sk_start_pipeline_hsw_lowp+0xac>
+ DB 118,193 ; jbe 23008 <_sk_start_pipeline_hsw_lowp+0xac>
DB 76,137,255 ; mov %r15,%rdi
DB 72,41,215 ; sub %rdx,%rdi
- DB 116,41 ; je 2c9f4 <_sk_start_pipeline_hsw_lowp+0x11c>
+ DB 116,41 ; je 23078 <_sk_start_pipeline_hsw_lowp+0x11c>
DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
@@ -42713,7 +33215,7 @@ _sk_start_pipeline_hsw_lowp LABEL PROC
DB 65,255,213 ; callq *%r13
DB 72,255,195 ; inc %rbx
DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 15,133,105,255,255,255 ; jne 2c96d <_sk_start_pipeline_hsw_lowp+0x95>
+ DB 15,133,105,255,255,255 ; jne 22ff1 <_sk_start_pipeline_hsw_lowp+0x95>
DB 197,248,40,181,32,255,255,255 ; vmovaps -0xe0(%rbp),%xmm6
DB 197,248,40,189,48,255,255,255 ; vmovaps -0xd0(%rbp),%xmm7
DB 197,120,40,133,64,255,255,255 ; vmovaps -0xc0(%rbp),%xmm8
@@ -42761,7 +33263,7 @@ _sk_uniform_color_hsw_lowp LABEL PROC
PUBLIC _sk_black_color_hsw_lowp
_sk_black_color_hsw_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,29,245,116,0,0 ; vpbroadcastw 0x74f5(%rip),%ymm3 # 33fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xb6c>
+ DB 196,226,125,121,29,177,112,0,0 ; vpbroadcastw 0x70b1(%rip),%ymm3 # 2a1e0 <_sk_srcover_rgba_8888_sse2_lowp+0x728>
DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
@@ -42770,7 +33272,7 @@ _sk_black_color_hsw_lowp LABEL PROC
PUBLIC _sk_white_color_hsw_lowp
_sk_white_color_hsw_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,5,222,116,0,0 ; vpbroadcastw 0x74de(%rip),%ymm0 # 33fa2 <_sk_srcover_rgba_8888_sse2_lowp+0xb6e>
+ DB 196,226,125,121,5,154,112,0,0 ; vpbroadcastw 0x709a(%rip),%ymm0 # 2a1e2 <_sk_srcover_rgba_8888_sse2_lowp+0x72a>
DB 197,253,111,200 ; vmovdqa %ymm0,%ymm1
DB 197,253,111,208 ; vmovdqa %ymm0,%ymm2
DB 197,253,111,216 ; vmovdqa %ymm0,%ymm3
@@ -42779,8 +33281,8 @@ _sk_white_color_hsw_lowp LABEL PROC
PUBLIC _sk_set_rgb_hsw_lowp
_sk_set_rgb_hsw_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,122,16,5,200,117,0,0 ; vmovss 0x75c8(%rip),%xmm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- DB 197,250,16,21,240,117,0,0 ; vmovss 0x75f0(%rip),%xmm2 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 197,122,16,5,132,113,0,0 ; vmovss 0x7184(%rip),%xmm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ DB 197,250,16,21,172,113,0,0 ; vmovss 0x71ac(%rip),%xmm2 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 197,250,16,0 ; vmovss (%rax),%xmm0
DB 196,226,57,153,194 ; vfmadd132ss %xmm2,%xmm8,%xmm0
DB 197,122,44,192 ; vcvttss2si %xmm0,%r8d
@@ -42801,7 +33303,7 @@ _sk_set_rgb_hsw_lowp LABEL PROC
PUBLIC _sk_premul_hsw_lowp
_sk_premul_hsw_lowp LABEL PROC
DB 197,229,213,192 ; vpmullw %ymm0,%ymm3,%ymm0
- DB 196,98,125,121,5,109,116,0,0 ; vpbroadcastw 0x746d(%rip),%ymm8 # 33fa4 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ DB 196,98,125,121,5,41,112,0,0 ; vpbroadcastw 0x7029(%rip),%ymm8 # 2a1e4 <_sk_srcover_rgba_8888_sse2_lowp+0x72c>
DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
DB 197,229,213,201 ; vpmullw %ymm1,%ymm3,%ymm1
@@ -42841,7 +33343,7 @@ _sk_move_dst_src_hsw_lowp LABEL PROC
PUBLIC _sk_invert_hsw_lowp
_sk_invert_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,4,116,0,0 ; vpbroadcastw 0x7404(%rip),%ymm8 # 33fa6 <_sk_srcover_rgba_8888_sse2_lowp+0xb72>
+ DB 196,98,125,121,5,192,111,0,0 ; vpbroadcastw 0x6fc0(%rip),%ymm8 # 2a1e6 <_sk_srcover_rgba_8888_sse2_lowp+0x72e>
DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
DB 197,189,249,201 ; vpsubw %ymm1,%ymm8,%ymm1
DB 197,189,249,210 ; vpsubw %ymm2,%ymm8,%ymm2
@@ -42861,7 +33363,7 @@ _sk_clear_hsw_lowp LABEL PROC
PUBLIC _sk_srcatop_hsw_lowp
_sk_srcatop_hsw_lowp LABEL PROC
DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
- DB 196,98,125,121,5,209,115,0,0 ; vpbroadcastw 0x73d1(%rip),%ymm8 # 33fa8 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ DB 196,98,125,121,5,141,111,0,0 ; vpbroadcastw 0x6f8d(%rip),%ymm8 # 2a1e8 <_sk_srcover_rgba_8888_sse2_lowp+0x730>
DB 197,189,249,219 ; vpsubw %ymm3,%ymm8,%ymm3
DB 197,101,213,204 ; vpmullw %ymm4,%ymm3,%ymm9
DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
@@ -42886,7 +33388,7 @@ _sk_srcatop_hsw_lowp LABEL PROC
PUBLIC _sk_dstatop_hsw_lowp
_sk_dstatop_hsw_lowp LABEL PROC
DB 197,93,213,195 ; vpmullw %ymm3,%ymm4,%ymm8
- DB 196,98,125,121,13,113,115,0,0 ; vpbroadcastw 0x7371(%rip),%ymm9 # 33faa <_sk_srcover_rgba_8888_sse2_lowp+0xb76>
+ DB 196,98,125,121,13,45,111,0,0 ; vpbroadcastw 0x6f2d(%rip),%ymm9 # 2a1ea <_sk_srcover_rgba_8888_sse2_lowp+0x732>
DB 197,53,249,215 ; vpsubw %ymm7,%ymm9,%ymm10
DB 197,173,213,192 ; vpmullw %ymm0,%ymm10,%ymm0
DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
@@ -42911,7 +33413,7 @@ _sk_dstatop_hsw_lowp LABEL PROC
PUBLIC _sk_srcin_hsw_lowp
_sk_srcin_hsw_lowp LABEL PROC
DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
- DB 196,98,125,121,5,14,115,0,0 ; vpbroadcastw 0x730e(%rip),%ymm8 # 33fac <_sk_srcover_rgba_8888_sse2_lowp+0xb78>
+ DB 196,98,125,121,5,202,110,0,0 ; vpbroadcastw 0x6eca(%rip),%ymm8 # 2a1ec <_sk_srcover_rgba_8888_sse2_lowp+0x734>
DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
DB 197,197,213,201 ; vpmullw %ymm1,%ymm7,%ymm1
@@ -42929,7 +33431,7 @@ _sk_srcin_hsw_lowp LABEL PROC
PUBLIC _sk_dstin_hsw_lowp
_sk_dstin_hsw_lowp LABEL PROC
DB 197,221,213,195 ; vpmullw %ymm3,%ymm4,%ymm0
- DB 196,98,125,121,5,203,114,0,0 ; vpbroadcastw 0x72cb(%rip),%ymm8 # 33fae <_sk_srcover_rgba_8888_sse2_lowp+0xb7a>
+ DB 196,98,125,121,5,135,110,0,0 ; vpbroadcastw 0x6e87(%rip),%ymm8 # 2a1ee <_sk_srcover_rgba_8888_sse2_lowp+0x736>
DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
DB 197,213,213,203 ; vpmullw %ymm3,%ymm5,%ymm1
@@ -42946,7 +33448,7 @@ _sk_dstin_hsw_lowp LABEL PROC
PUBLIC _sk_srcout_hsw_lowp
_sk_srcout_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,140,114,0,0 ; vpbroadcastw 0x728c(%rip),%ymm8 # 33fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb7c>
+ DB 196,98,125,121,5,72,110,0,0 ; vpbroadcastw 0x6e48(%rip),%ymm8 # 2a1f0 <_sk_srcover_rgba_8888_sse2_lowp+0x738>
DB 197,61,249,207 ; vpsubw %ymm7,%ymm8,%ymm9
DB 197,181,213,192 ; vpmullw %ymm0,%ymm9,%ymm0
DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
@@ -42965,7 +33467,7 @@ _sk_srcout_hsw_lowp LABEL PROC
PUBLIC _sk_dstout_hsw_lowp
_sk_dstout_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,69,114,0,0 ; vpbroadcastw 0x7245(%rip),%ymm8 # 33fb2 <_sk_srcover_rgba_8888_sse2_lowp+0xb7e>
+ DB 196,98,125,121,5,1,110,0,0 ; vpbroadcastw 0x6e01(%rip),%ymm8 # 2a1f2 <_sk_srcover_rgba_8888_sse2_lowp+0x73a>
DB 197,189,249,219 ; vpsubw %ymm3,%ymm8,%ymm3
DB 197,229,213,196 ; vpmullw %ymm4,%ymm3,%ymm0
DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
@@ -42984,7 +33486,7 @@ _sk_dstout_hsw_lowp LABEL PROC
PUBLIC _sk_srcover_hsw_lowp
_sk_srcover_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,254,113,0,0 ; vpbroadcastw 0x71fe(%rip),%ymm8 # 33fb4 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
+ DB 196,98,125,121,5,186,109,0,0 ; vpbroadcastw 0x6dba(%rip),%ymm8 # 2a1f4 <_sk_srcover_rgba_8888_sse2_lowp+0x73c>
DB 197,61,249,203 ; vpsubw %ymm3,%ymm8,%ymm9
DB 197,53,213,212 ; vpmullw %ymm4,%ymm9,%ymm10
DB 196,65,45,253,208 ; vpaddw %ymm8,%ymm10,%ymm10
@@ -43007,7 +33509,7 @@ _sk_srcover_hsw_lowp LABEL PROC
PUBLIC _sk_dstover_hsw_lowp
_sk_dstover_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,163,113,0,0 ; vpbroadcastw 0x71a3(%rip),%ymm8 # 33fb6 <_sk_srcover_rgba_8888_sse2_lowp+0xb82>
+ DB 196,98,125,121,5,95,109,0,0 ; vpbroadcastw 0x6d5f(%rip),%ymm8 # 2a1f6 <_sk_srcover_rgba_8888_sse2_lowp+0x73e>
DB 197,61,249,207 ; vpsubw %ymm7,%ymm8,%ymm9
DB 197,181,213,192 ; vpmullw %ymm0,%ymm9,%ymm0
DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
@@ -43031,7 +33533,7 @@ _sk_dstover_hsw_lowp LABEL PROC
PUBLIC _sk_modulate_hsw_lowp
_sk_modulate_hsw_lowp LABEL PROC
DB 197,221,213,192 ; vpmullw %ymm0,%ymm4,%ymm0
- DB 196,98,125,121,5,72,113,0,0 ; vpbroadcastw 0x7148(%rip),%ymm8 # 33fb8 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
+ DB 196,98,125,121,5,4,109,0,0 ; vpbroadcastw 0x6d04(%rip),%ymm8 # 2a1f8 <_sk_srcover_rgba_8888_sse2_lowp+0x740>
DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
DB 197,213,213,201 ; vpmullw %ymm1,%ymm5,%ymm1
@@ -43048,7 +33550,7 @@ _sk_modulate_hsw_lowp LABEL PROC
PUBLIC _sk_multiply_hsw_lowp
_sk_multiply_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,9,113,0,0 ; vpbroadcastw 0x7109(%rip),%ymm8 # 33fba <_sk_srcover_rgba_8888_sse2_lowp+0xb86>
+ DB 196,98,125,121,5,197,108,0,0 ; vpbroadcastw 0x6cc5(%rip),%ymm8 # 2a1fa <_sk_srcover_rgba_8888_sse2_lowp+0x742>
DB 197,61,249,203 ; vpsubw %ymm3,%ymm8,%ymm9
DB 197,53,213,212 ; vpmullw %ymm4,%ymm9,%ymm10
DB 196,65,93,253,216 ; vpaddw %ymm8,%ymm4,%ymm11
@@ -43082,7 +33584,7 @@ _sk_multiply_hsw_lowp LABEL PROC
PUBLIC _sk_plus__hsw_lowp
_sk_plus__hsw_lowp LABEL PROC
DB 197,221,253,192 ; vpaddw %ymm0,%ymm4,%ymm0
- DB 196,98,125,121,5,127,112,0,0 ; vpbroadcastw 0x707f(%rip),%ymm8 # 33fbc <_sk_srcover_rgba_8888_sse2_lowp+0xb88>
+ DB 196,98,125,121,5,59,108,0,0 ; vpbroadcastw 0x6c3b(%rip),%ymm8 # 2a1fc <_sk_srcover_rgba_8888_sse2_lowp+0x744>
DB 196,194,125,58,192 ; vpminuw %ymm8,%ymm0,%ymm0
DB 197,213,253,201 ; vpaddw %ymm1,%ymm5,%ymm1
DB 196,194,117,58,200 ; vpminuw %ymm8,%ymm1,%ymm1
@@ -43097,7 +33599,7 @@ PUBLIC _sk_screen_hsw_lowp
_sk_screen_hsw_lowp LABEL PROC
DB 197,93,253,192 ; vpaddw %ymm0,%ymm4,%ymm8
DB 197,221,213,192 ; vpmullw %ymm0,%ymm4,%ymm0
- DB 196,98,125,121,13,76,112,0,0 ; vpbroadcastw 0x704c(%rip),%ymm9 # 33fbe <_sk_srcover_rgba_8888_sse2_lowp+0xb8a>
+ DB 196,98,125,121,13,8,108,0,0 ; vpbroadcastw 0x6c08(%rip),%ymm9 # 2a1fe <_sk_srcover_rgba_8888_sse2_lowp+0x746>
DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
@@ -43121,7 +33623,7 @@ _sk_screen_hsw_lowp LABEL PROC
PUBLIC _sk_xor__hsw_lowp
_sk_xor__hsw_lowp LABEL PROC
- DB 196,98,125,121,5,241,111,0,0 ; vpbroadcastw 0x6ff1(%rip),%ymm8 # 33fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb8c>
+ DB 196,98,125,121,5,173,107,0,0 ; vpbroadcastw 0x6bad(%rip),%ymm8 # 2a200 <_sk_srcover_rgba_8888_sse2_lowp+0x748>
DB 197,61,249,207 ; vpsubw %ymm7,%ymm8,%ymm9
DB 197,181,213,192 ; vpmullw %ymm0,%ymm9,%ymm0
DB 197,61,249,211 ; vpsubw %ymm3,%ymm8,%ymm10
@@ -43153,7 +33655,7 @@ _sk_darken_hsw_lowp LABEL PROC
DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
DB 197,93,213,203 ; vpmullw %ymm3,%ymm4,%ymm9
DB 196,194,125,62,193 ; vpmaxuw %ymm9,%ymm0,%ymm0
- DB 196,98,125,121,13,117,111,0,0 ; vpbroadcastw 0x6f75(%rip),%ymm9 # 33fc2 <_sk_srcover_rgba_8888_sse2_lowp+0xb8e>
+ DB 196,98,125,121,13,49,107,0,0 ; vpbroadcastw 0x6b31(%rip),%ymm9 # 2a202 <_sk_srcover_rgba_8888_sse2_lowp+0x74a>
DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
@@ -43185,7 +33687,7 @@ _sk_lighten_hsw_lowp LABEL PROC
DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
DB 197,93,213,203 ; vpmullw %ymm3,%ymm4,%ymm9
DB 196,194,125,58,193 ; vpminuw %ymm9,%ymm0,%ymm0
- DB 196,98,125,121,13,246,110,0,0 ; vpbroadcastw 0x6ef6(%rip),%ymm9 # 33fc4 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
+ DB 196,98,125,121,13,178,106,0,0 ; vpbroadcastw 0x6ab2(%rip),%ymm9 # 2a204 <_sk_srcover_rgba_8888_sse2_lowp+0x74c>
DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
@@ -43217,10 +33719,10 @@ _sk_difference_hsw_lowp LABEL PROC
DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
DB 197,93,213,203 ; vpmullw %ymm3,%ymm4,%ymm9
DB 196,194,125,58,193 ; vpminuw %ymm9,%ymm0,%ymm0
- DB 196,98,125,121,13,119,110,0,0 ; vpbroadcastw 0x6e77(%rip),%ymm9 # 33fc6 <_sk_srcover_rgba_8888_sse2_lowp+0xb92>
+ DB 196,98,125,121,13,51,106,0,0 ; vpbroadcastw 0x6a33(%rip),%ymm9 # 2a206 <_sk_srcover_rgba_8888_sse2_lowp+0x74e>
DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
DB 197,253,113,208,7 ; vpsrlw $0x7,%ymm0,%ymm0
- DB 196,98,125,121,21,102,110,0,0 ; vpbroadcastw 0x6e66(%rip),%ymm10 # 33fc8 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ DB 196,98,125,121,21,34,106,0,0 ; vpbroadcastw 0x6a22(%rip),%ymm10 # 2a208 <_sk_srcover_rgba_8888_sse2_lowp+0x750>
DB 196,193,125,219,194 ; vpand %ymm10,%ymm0,%ymm0
DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
DB 197,85,253,193 ; vpaddw %ymm1,%ymm5,%ymm8
@@ -43251,10 +33753,10 @@ PUBLIC _sk_exclusion_hsw_lowp
_sk_exclusion_hsw_lowp LABEL PROC
DB 197,93,253,192 ; vpaddw %ymm0,%ymm4,%ymm8
DB 197,221,213,192 ; vpmullw %ymm0,%ymm4,%ymm0
- DB 196,98,125,121,13,235,109,0,0 ; vpbroadcastw 0x6deb(%rip),%ymm9 # 33fca <_sk_srcover_rgba_8888_sse2_lowp+0xb96>
+ DB 196,98,125,121,13,167,105,0,0 ; vpbroadcastw 0x69a7(%rip),%ymm9 # 2a20a <_sk_srcover_rgba_8888_sse2_lowp+0x752>
DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
DB 197,253,113,208,7 ; vpsrlw $0x7,%ymm0,%ymm0
- DB 196,98,125,121,21,218,109,0,0 ; vpbroadcastw 0x6dda(%rip),%ymm10 # 33fcc <_sk_srcover_rgba_8888_sse2_lowp+0xb98>
+ DB 196,98,125,121,21,150,105,0,0 ; vpbroadcastw 0x6996(%rip),%ymm10 # 2a20c <_sk_srcover_rgba_8888_sse2_lowp+0x754>
DB 196,193,125,219,194 ; vpand %ymm10,%ymm0,%ymm0
DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
DB 197,85,253,193 ; vpaddw %ymm1,%ymm5,%ymm8
@@ -43280,7 +33782,7 @@ _sk_exclusion_hsw_lowp LABEL PROC
PUBLIC _sk_hardlight_hsw_lowp
_sk_hardlight_hsw_lowp LABEL PROC
DB 197,125,253,192 ; vpaddw %ymm0,%ymm0,%ymm8
- DB 196,98,125,121,13,119,109,0,0 ; vpbroadcastw 0x6d77(%rip),%ymm9 # 33fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb9c>
+ DB 196,98,125,121,13,51,105,0,0 ; vpbroadcastw 0x6933(%rip),%ymm9 # 2a210 <_sk_srcover_rgba_8888_sse2_lowp+0x758>
DB 196,65,101,239,209 ; vpxor %ymm9,%ymm3,%ymm10
DB 196,65,61,239,217 ; vpxor %ymm9,%ymm8,%ymm11
DB 196,65,37,101,218 ; vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -43308,7 +33810,7 @@ _sk_hardlight_hsw_lowp LABEL PROC
DB 197,101,249,210 ; vpsubw %ymm2,%ymm3,%ymm10
DB 197,69,249,246 ; vpsubw %ymm6,%ymm7,%ymm14
DB 196,65,45,213,214 ; vpmullw %ymm14,%ymm10,%ymm10
- DB 196,98,125,121,53,238,108,0,0 ; vpbroadcastw 0x6cee(%rip),%ymm14 # 33fce <_sk_srcover_rgba_8888_sse2_lowp+0xb9a>
+ DB 196,98,125,121,53,170,104,0,0 ; vpbroadcastw 0x68aa(%rip),%ymm14 # 2a20e <_sk_srcover_rgba_8888_sse2_lowp+0x756>
DB 196,65,45,253,210 ; vpaddw %ymm10,%ymm10,%ymm10
DB 196,65,61,249,194 ; vpsubw %ymm10,%ymm8,%ymm8
DB 197,13,249,215 ; vpsubw %ymm7,%ymm14,%ymm10
@@ -43343,7 +33845,7 @@ _sk_hardlight_hsw_lowp LABEL PROC
PUBLIC _sk_overlay_hsw_lowp
_sk_overlay_hsw_lowp LABEL PROC
DB 197,93,253,196 ; vpaddw %ymm4,%ymm4,%ymm8
- DB 196,98,125,121,13,99,108,0,0 ; vpbroadcastw 0x6c63(%rip),%ymm9 # 33fd4 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
+ DB 196,98,125,121,13,31,104,0,0 ; vpbroadcastw 0x681f(%rip),%ymm9 # 2a214 <_sk_srcover_rgba_8888_sse2_lowp+0x75c>
DB 196,65,69,239,209 ; vpxor %ymm9,%ymm7,%ymm10
DB 196,65,61,239,193 ; vpxor %ymm9,%ymm8,%ymm8
DB 196,65,61,101,218 ; vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -43367,7 +33869,7 @@ _sk_overlay_hsw_lowp LABEL PROC
DB 196,65,21,253,237 ; vpaddw %ymm13,%ymm13,%ymm13
DB 196,65,61,249,237 ; vpsubw %ymm13,%ymm8,%ymm13
DB 196,67,13,76,229,192 ; vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- DB 196,98,125,121,45,235,107,0,0 ; vpbroadcastw 0x6beb(%rip),%ymm13 # 33fd2 <_sk_srcover_rgba_8888_sse2_lowp+0xb9e>
+ DB 196,98,125,121,45,167,103,0,0 ; vpbroadcastw 0x67a7(%rip),%ymm13 # 2a212 <_sk_srcover_rgba_8888_sse2_lowp+0x75a>
DB 197,77,253,246 ; vpaddw %ymm6,%ymm6,%ymm14
DB 196,65,13,239,201 ; vpxor %ymm9,%ymm14,%ymm9
DB 196,65,53,101,202 ; vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -43417,10 +33919,10 @@ _sk_load_8888_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,55 ; ja 2d4dd <_sk_load_8888_hsw_lowp+0x52>
+ DB 119,55 ; ja 23b61 <_sk_load_8888_hsw_lowp+0x52>
DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,160,1,0,0 ; lea 0x1a0(%rip),%r9 # 2d654 <_sk_load_8888_hsw_lowp+0x1c9>
+ DB 76,141,13,160,1,0,0 ; lea 0x1a0(%rip),%r9 # 23cd8 <_sk_load_8888_hsw_lowp+0x1c9>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
@@ -43430,10 +33932,10 @@ _sk_load_8888_hsw_lowp LABEL PROC
DB 255,224 ; jmpq *%rax
DB 196,193,121,110,12,144 ; vmovd (%r8,%rdx,4),%xmm1
DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 233,39,1,0,0 ; jmpq 2d604 <_sk_load_8888_hsw_lowp+0x179>
+ DB 233,39,1,0,0 ; jmpq 23c88 <_sk_load_8888_hsw_lowp+0x179>
DB 196,193,126,111,12,144 ; vmovdqu (%r8,%rdx,4),%ymm1
DB 196,193,126,111,68,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%ymm0
- DB 233,21,1,0,0 ; jmpq 2d604 <_sk_load_8888_hsw_lowp+0x179>
+ DB 233,21,1,0,0 ; jmpq 23c88 <_sk_load_8888_hsw_lowp+0x179>
DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
@@ -43442,7 +33944,7 @@ _sk_load_8888_hsw_lowp LABEL PROC
DB 197,249,112,201,232 ; vpshufd $0xe8,%xmm1,%xmm1
DB 196,227,125,2,201,3 ; vpblendd $0x3,%ymm1,%ymm0,%ymm1
DB 197,253,111,195 ; vmovdqa %ymm3,%ymm0
- DB 233,229,0,0,0 ; jmpq 2d604 <_sk_load_8888_hsw_lowp+0x179>
+ DB 233,229,0,0,0 ; jmpq 23c88 <_sk_load_8888_hsw_lowp+0x179>
DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
@@ -43458,7 +33960,7 @@ _sk_load_8888_hsw_lowp LABEL PROC
DB 196,193,122,111,12,144 ; vmovdqu (%r8,%rdx,4),%xmm1
DB 196,227,117,2,200,240 ; vpblendd $0xf0,%ymm0,%ymm1,%ymm1
DB 197,125,127,192 ; vmovdqa %ymm8,%ymm0
- DB 233,138,0,0,0 ; jmpq 2d604 <_sk_load_8888_hsw_lowp+0x179>
+ DB 233,138,0,0,0 ; jmpq 23c88 <_sk_load_8888_hsw_lowp+0x179>
DB 196,193,121,110,68,144,40 ; vmovd 0x28(%r8,%rdx,4),%xmm0
DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
@@ -43468,7 +33970,7 @@ _sk_load_8888_hsw_lowp LABEL PROC
DB 196,193,121,110,76,144,32 ; vmovd 0x20(%r8,%rdx,4),%xmm1
DB 196,227,125,2,193,1 ; vpblendd $0x1,%ymm1,%ymm0,%ymm0
DB 196,193,126,111,12,144 ; vmovdqu (%r8,%rdx,4),%ymm1
- DB 235,81 ; jmp 2d604 <_sk_load_8888_hsw_lowp+0x179>
+ DB 235,81 ; jmp 23c88 <_sk_load_8888_hsw_lowp+0x179>
DB 196,193,121,110,68,144,56 ; vmovd 0x38(%r8,%rdx,4),%xmm0
DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
@@ -43488,7 +33990,7 @@ _sk_load_8888_hsw_lowp LABEL PROC
DB 196,227,101,14,200,170 ; vpblendw $0xaa,%ymm0,%ymm3,%ymm1
DB 196,227,109,14,192,170 ; vpblendw $0xaa,%ymm0,%ymm2,%ymm0
DB 196,226,125,43,201 ; vpackusdw %ymm1,%ymm0,%ymm1
- DB 197,125,111,5,179,105,0,0 ; vmovdqa 0x69b3(%rip),%ymm8 # 33fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xbac>
+ DB 197,125,111,5,111,101,0,0 ; vmovdqa 0x656f(%rip),%ymm8 # 2a220 <_sk_srcover_rgba_8888_sse2_lowp+0x768>
DB 196,193,117,219,192 ; vpand %ymm8,%ymm1,%ymm0
DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
DB 197,229,114,211,16 ; vpsrld $0x10,%ymm3,%ymm3
@@ -43498,7 +34000,7 @@ _sk_load_8888_hsw_lowp LABEL PROC
DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
- DB 122,254 ; jp 2d654 <_sk_load_8888_hsw_lowp+0x1c9>
+ DB 122,254 ; jp 23cd8 <_sk_load_8888_hsw_lowp+0x1c9>
DB 255 ; (bad)
DB 255,177,254,255,255,155 ; pushq -0x64000002(%rcx)
DB 254 ; (bad)
@@ -43546,10 +34048,10 @@ _sk_load_8888_dst_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,55 ; ja 2d6e2 <_sk_load_8888_dst_hsw_lowp+0x52>
+ DB 119,55 ; ja 23d66 <_sk_load_8888_dst_hsw_lowp+0x52>
DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,163,1,0,0 ; lea 0x1a3(%rip),%r9 # 2d85c <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ DB 76,141,13,163,1,0,0 ; lea 0x1a3(%rip),%r9 # 23ee0 <_sk_load_8888_dst_hsw_lowp+0x1cc>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -43559,10 +34061,10 @@ _sk_load_8888_dst_hsw_lowp LABEL PROC
DB 255,224 ; jmpq *%rax
DB 196,193,121,110,44,144 ; vmovd (%r8,%rdx,4),%xmm5
DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 233,39,1,0,0 ; jmpq 2d809 <_sk_load_8888_dst_hsw_lowp+0x179>
+ DB 233,39,1,0,0 ; jmpq 23e8d <_sk_load_8888_dst_hsw_lowp+0x179>
DB 196,193,126,111,44,144 ; vmovdqu (%r8,%rdx,4),%ymm5
DB 196,193,126,111,100,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%ymm4
- DB 233,21,1,0,0 ; jmpq 2d809 <_sk_load_8888_dst_hsw_lowp+0x179>
+ DB 233,21,1,0,0 ; jmpq 23e8d <_sk_load_8888_dst_hsw_lowp+0x179>
DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
@@ -43571,7 +34073,7 @@ _sk_load_8888_dst_hsw_lowp LABEL PROC
DB 197,249,112,237,232 ; vpshufd $0xe8,%xmm5,%xmm5
DB 196,227,93,2,237,3 ; vpblendd $0x3,%ymm5,%ymm4,%ymm5
DB 197,253,111,231 ; vmovdqa %ymm7,%ymm4
- DB 233,229,0,0,0 ; jmpq 2d809 <_sk_load_8888_dst_hsw_lowp+0x179>
+ DB 233,229,0,0,0 ; jmpq 23e8d <_sk_load_8888_dst_hsw_lowp+0x179>
DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -43587,7 +34089,7 @@ _sk_load_8888_dst_hsw_lowp LABEL PROC
DB 196,193,122,111,44,144 ; vmovdqu (%r8,%rdx,4),%xmm5
DB 196,227,85,2,236,240 ; vpblendd $0xf0,%ymm4,%ymm5,%ymm5
DB 197,125,127,196 ; vmovdqa %ymm8,%ymm4
- DB 233,138,0,0,0 ; jmpq 2d809 <_sk_load_8888_dst_hsw_lowp+0x179>
+ DB 233,138,0,0,0 ; jmpq 23e8d <_sk_load_8888_dst_hsw_lowp+0x179>
DB 196,193,121,110,100,144,40 ; vmovd 0x28(%r8,%rdx,4),%xmm4
DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -43597,7 +34099,7 @@ _sk_load_8888_dst_hsw_lowp LABEL PROC
DB 196,193,121,110,108,144,32 ; vmovd 0x20(%r8,%rdx,4),%xmm5
DB 196,227,93,2,229,1 ; vpblendd $0x1,%ymm5,%ymm4,%ymm4
DB 196,193,126,111,44,144 ; vmovdqu (%r8,%rdx,4),%ymm5
- DB 235,81 ; jmp 2d809 <_sk_load_8888_dst_hsw_lowp+0x179>
+ DB 235,81 ; jmp 23e8d <_sk_load_8888_dst_hsw_lowp+0x179>
DB 196,193,121,110,100,144,56 ; vmovd 0x38(%r8,%rdx,4),%xmm4
DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -43617,7 +34119,7 @@ _sk_load_8888_dst_hsw_lowp LABEL PROC
DB 196,227,69,14,236,170 ; vpblendw $0xaa,%ymm4,%ymm7,%ymm5
DB 196,227,77,14,228,170 ; vpblendw $0xaa,%ymm4,%ymm6,%ymm4
DB 196,226,93,43,237 ; vpackusdw %ymm5,%ymm4,%ymm5
- DB 197,125,111,5,206,103,0,0 ; vmovdqa 0x67ce(%rip),%ymm8 # 34000 <_sk_srcover_rgba_8888_sse2_lowp+0xbcc>
+ DB 197,125,111,5,138,99,0,0 ; vmovdqa 0x638a(%rip),%ymm8 # 2a240 <_sk_srcover_rgba_8888_sse2_lowp+0x788>
DB 196,193,85,219,224 ; vpand %ymm8,%ymm5,%ymm4
DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
DB 197,197,114,215,16 ; vpsrld $0x10,%ymm7,%ymm7
@@ -43628,7 +34130,7 @@ _sk_load_8888_dst_hsw_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
DB 15,31,0 ; nopl (%rax)
- DB 119,254 ; ja 2d85c <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ DB 119,254 ; ja 23ee0 <_sk_load_8888_dst_hsw_lowp+0x1cc>
DB 255 ; (bad)
DB 255,174,254,255,255,152 ; ljmp *-0x67000002(%rsi)
DB 254 ; (bad)
@@ -43687,20 +34189,20 @@ _sk_store_8888_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,30 ; ja 2d919 <_sk_store_8888_hsw_lowp+0x81>
+ DB 119,30 ; ja 23f9d <_sk_store_8888_hsw_lowp+0x81>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,195,0,0,0 ; lea 0xc3(%rip),%r9 # 2d9c8 <_sk_store_8888_hsw_lowp+0x130>
+ DB 76,141,13,195,0,0,0 ; lea 0xc3(%rip),%r9 # 2404c <_sk_store_8888_hsw_lowp+0x130>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 233,171,0,0,0 ; jmpq 2d9c4 <_sk_store_8888_hsw_lowp+0x12c>
+ DB 233,171,0,0,0 ; jmpq 24048 <_sk_store_8888_hsw_lowp+0x12c>
DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
DB 196,65,126,127,76,144,32 ; vmovdqu %ymm9,0x20(%r8,%rdx,4)
- DB 233,153,0,0,0 ; jmpq 2d9c4 <_sk_store_8888_hsw_lowp+0x12c>
+ DB 233,153,0,0,0 ; jmpq 24048 <_sk_store_8888_hsw_lowp+0x12c>
DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 233,134,0,0,0 ; jmpq 2d9c4 <_sk_store_8888_hsw_lowp+0x12c>
+ DB 233,134,0,0,0 ; jmpq 24048 <_sk_store_8888_hsw_lowp+0x12c>
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
@@ -43708,12 +34210,12 @@ _sk_store_8888_hsw_lowp LABEL PROC
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
DB 196,65,122,127,4,144 ; vmovdqu %xmm8,(%r8,%rdx,4)
- DB 235,85 ; jmp 2d9c4 <_sk_store_8888_hsw_lowp+0x12c>
+ DB 235,85 ; jmp 24048 <_sk_store_8888_hsw_lowp+0x12c>
DB 196,67,121,22,76,144,40,2 ; vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
DB 196,67,121,22,76,144,36,1 ; vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
DB 196,65,121,126,76,144,32 ; vmovd %xmm9,0x20(%r8,%rdx,4)
DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 235,54 ; jmp 2d9c4 <_sk_store_8888_hsw_lowp+0x12c>
+ DB 235,54 ; jmp 24048 <_sk_store_8888_hsw_lowp+0x12c>
DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
DB 196,67,121,22,84,144,56,2 ; vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
@@ -43768,10 +34270,10 @@ _sk_load_bgra_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,55 ; ja 2da56 <_sk_load_bgra_hsw_lowp+0x52>
+ DB 119,55 ; ja 240da <_sk_load_bgra_hsw_lowp+0x52>
DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,163,1,0,0 ; lea 0x1a3(%rip),%r9 # 2dbd0 <_sk_load_bgra_hsw_lowp+0x1cc>
+ DB 76,141,13,163,1,0,0 ; lea 0x1a3(%rip),%r9 # 24254 <_sk_load_bgra_hsw_lowp+0x1cc>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
@@ -43781,10 +34283,10 @@ _sk_load_bgra_hsw_lowp LABEL PROC
DB 255,224 ; jmpq *%rax
DB 196,193,121,110,12,144 ; vmovd (%r8,%rdx,4),%xmm1
DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 233,39,1,0,0 ; jmpq 2db7d <_sk_load_bgra_hsw_lowp+0x179>
+ DB 233,39,1,0,0 ; jmpq 24201 <_sk_load_bgra_hsw_lowp+0x179>
DB 196,193,126,111,12,144 ; vmovdqu (%r8,%rdx,4),%ymm1
DB 196,193,126,111,68,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%ymm0
- DB 233,21,1,0,0 ; jmpq 2db7d <_sk_load_bgra_hsw_lowp+0x179>
+ DB 233,21,1,0,0 ; jmpq 24201 <_sk_load_bgra_hsw_lowp+0x179>
DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
@@ -43793,7 +34295,7 @@ _sk_load_bgra_hsw_lowp LABEL PROC
DB 197,249,112,201,232 ; vpshufd $0xe8,%xmm1,%xmm1
DB 196,227,125,2,201,3 ; vpblendd $0x3,%ymm1,%ymm0,%ymm1
DB 197,253,111,195 ; vmovdqa %ymm3,%ymm0
- DB 233,229,0,0,0 ; jmpq 2db7d <_sk_load_bgra_hsw_lowp+0x179>
+ DB 233,229,0,0,0 ; jmpq 24201 <_sk_load_bgra_hsw_lowp+0x179>
DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
@@ -43809,7 +34311,7 @@ _sk_load_bgra_hsw_lowp LABEL PROC
DB 196,193,122,111,12,144 ; vmovdqu (%r8,%rdx,4),%xmm1
DB 196,227,117,2,200,240 ; vpblendd $0xf0,%ymm0,%ymm1,%ymm1
DB 197,125,127,192 ; vmovdqa %ymm8,%ymm0
- DB 233,138,0,0,0 ; jmpq 2db7d <_sk_load_bgra_hsw_lowp+0x179>
+ DB 233,138,0,0,0 ; jmpq 24201 <_sk_load_bgra_hsw_lowp+0x179>
DB 196,193,121,110,68,144,40 ; vmovd 0x28(%r8,%rdx,4),%xmm0
DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
@@ -43819,7 +34321,7 @@ _sk_load_bgra_hsw_lowp LABEL PROC
DB 196,193,121,110,76,144,32 ; vmovd 0x20(%r8,%rdx,4),%xmm1
DB 196,227,125,2,193,1 ; vpblendd $0x1,%ymm1,%ymm0,%ymm0
DB 196,193,126,111,12,144 ; vmovdqu (%r8,%rdx,4),%ymm1
- DB 235,81 ; jmp 2db7d <_sk_load_bgra_hsw_lowp+0x179>
+ DB 235,81 ; jmp 24201 <_sk_load_bgra_hsw_lowp+0x179>
DB 196,193,121,110,68,144,56 ; vmovd 0x38(%r8,%rdx,4),%xmm0
DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
@@ -43839,7 +34341,7 @@ _sk_load_bgra_hsw_lowp LABEL PROC
DB 196,227,125,14,209,170 ; vpblendw $0xaa,%ymm1,%ymm0,%ymm2
DB 196,227,101,14,201,170 ; vpblendw $0xaa,%ymm1,%ymm3,%ymm1
DB 196,226,117,43,202 ; vpackusdw %ymm2,%ymm1,%ymm1
- DB 197,125,111,5,122,100,0,0 ; vmovdqa 0x647a(%rip),%ymm8 # 34020 <_sk_srcover_rgba_8888_sse2_lowp+0xbec>
+ DB 197,125,111,5,54,96,0,0 ; vmovdqa 0x6036(%rip),%ymm8 # 2a260 <_sk_srcover_rgba_8888_sse2_lowp+0x7a8>
DB 196,193,117,219,208 ; vpand %ymm8,%ymm1,%ymm2
DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
DB 197,253,114,208,16 ; vpsrld $0x10,%ymm0,%ymm0
@@ -43850,7 +34352,7 @@ _sk_load_bgra_hsw_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
DB 15,31,0 ; nopl (%rax)
- DB 119,254 ; ja 2dbd0 <_sk_load_bgra_hsw_lowp+0x1cc>
+ DB 119,254 ; ja 24254 <_sk_load_bgra_hsw_lowp+0x1cc>
DB 255 ; (bad)
DB 255,174,254,255,255,152 ; ljmp *-0x67000002(%rsi)
DB 254 ; (bad)
@@ -43895,10 +34397,10 @@ _sk_load_bgra_dst_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,55 ; ja 2dc5e <_sk_load_bgra_dst_hsw_lowp+0x52>
+ DB 119,55 ; ja 242e2 <_sk_load_bgra_dst_hsw_lowp+0x52>
DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,163,1,0,0 ; lea 0x1a3(%rip),%r9 # 2ddd8 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ DB 76,141,13,163,1,0,0 ; lea 0x1a3(%rip),%r9 # 2445c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -43908,10 +34410,10 @@ _sk_load_bgra_dst_hsw_lowp LABEL PROC
DB 255,224 ; jmpq *%rax
DB 196,193,121,110,44,144 ; vmovd (%r8,%rdx,4),%xmm5
DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 233,39,1,0,0 ; jmpq 2dd85 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ DB 233,39,1,0,0 ; jmpq 24409 <_sk_load_bgra_dst_hsw_lowp+0x179>
DB 196,193,126,111,44,144 ; vmovdqu (%r8,%rdx,4),%ymm5
DB 196,193,126,111,100,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%ymm4
- DB 233,21,1,0,0 ; jmpq 2dd85 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ DB 233,21,1,0,0 ; jmpq 24409 <_sk_load_bgra_dst_hsw_lowp+0x179>
DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
@@ -43920,7 +34422,7 @@ _sk_load_bgra_dst_hsw_lowp LABEL PROC
DB 197,249,112,237,232 ; vpshufd $0xe8,%xmm5,%xmm5
DB 196,227,93,2,237,3 ; vpblendd $0x3,%ymm5,%ymm4,%ymm5
DB 197,253,111,231 ; vmovdqa %ymm7,%ymm4
- DB 233,229,0,0,0 ; jmpq 2dd85 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ DB 233,229,0,0,0 ; jmpq 24409 <_sk_load_bgra_dst_hsw_lowp+0x179>
DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -43936,7 +34438,7 @@ _sk_load_bgra_dst_hsw_lowp LABEL PROC
DB 196,193,122,111,44,144 ; vmovdqu (%r8,%rdx,4),%xmm5
DB 196,227,85,2,236,240 ; vpblendd $0xf0,%ymm4,%ymm5,%ymm5
DB 197,125,127,196 ; vmovdqa %ymm8,%ymm4
- DB 233,138,0,0,0 ; jmpq 2dd85 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ DB 233,138,0,0,0 ; jmpq 24409 <_sk_load_bgra_dst_hsw_lowp+0x179>
DB 196,193,121,110,100,144,40 ; vmovd 0x28(%r8,%rdx,4),%xmm4
DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -43946,7 +34448,7 @@ _sk_load_bgra_dst_hsw_lowp LABEL PROC
DB 196,193,121,110,108,144,32 ; vmovd 0x20(%r8,%rdx,4),%xmm5
DB 196,227,93,2,229,1 ; vpblendd $0x1,%ymm5,%ymm4,%ymm4
DB 196,193,126,111,44,144 ; vmovdqu (%r8,%rdx,4),%ymm5
- DB 235,81 ; jmp 2dd85 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ DB 235,81 ; jmp 24409 <_sk_load_bgra_dst_hsw_lowp+0x179>
DB 196,193,121,110,100,144,56 ; vmovd 0x38(%r8,%rdx,4),%xmm4
DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -43966,7 +34468,7 @@ _sk_load_bgra_dst_hsw_lowp LABEL PROC
DB 196,227,93,14,245,170 ; vpblendw $0xaa,%ymm5,%ymm4,%ymm6
DB 196,227,69,14,237,170 ; vpblendw $0xaa,%ymm5,%ymm7,%ymm5
DB 196,226,85,43,238 ; vpackusdw %ymm6,%ymm5,%ymm5
- DB 197,125,111,5,146,98,0,0 ; vmovdqa 0x6292(%rip),%ymm8 # 34040 <_sk_srcover_rgba_8888_sse2_lowp+0xc0c>
+ DB 197,125,111,5,78,94,0,0 ; vmovdqa 0x5e4e(%rip),%ymm8 # 2a280 <_sk_srcover_rgba_8888_sse2_lowp+0x7c8>
DB 196,193,85,219,240 ; vpand %ymm8,%ymm5,%ymm6
DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
DB 197,221,114,212,16 ; vpsrld $0x10,%ymm4,%ymm4
@@ -43977,7 +34479,7 @@ _sk_load_bgra_dst_hsw_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
DB 15,31,0 ; nopl (%rax)
- DB 119,254 ; ja 2ddd8 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ DB 119,254 ; ja 2445c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
DB 255 ; (bad)
DB 255,174,254,255,255,152 ; ljmp *-0x67000002(%rsi)
DB 254 ; (bad)
@@ -44036,20 +34538,20 @@ _sk_store_bgra_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,30 ; ja 2de95 <_sk_store_bgra_hsw_lowp+0x81>
+ DB 119,30 ; ja 24519 <_sk_store_bgra_hsw_lowp+0x81>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,195,0,0,0 ; lea 0xc3(%rip),%r9 # 2df44 <_sk_store_bgra_hsw_lowp+0x130>
+ DB 76,141,13,195,0,0,0 ; lea 0xc3(%rip),%r9 # 245c8 <_sk_store_bgra_hsw_lowp+0x130>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 233,171,0,0,0 ; jmpq 2df40 <_sk_store_bgra_hsw_lowp+0x12c>
+ DB 233,171,0,0,0 ; jmpq 245c4 <_sk_store_bgra_hsw_lowp+0x12c>
DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
DB 196,65,126,127,76,144,32 ; vmovdqu %ymm9,0x20(%r8,%rdx,4)
- DB 233,153,0,0,0 ; jmpq 2df40 <_sk_store_bgra_hsw_lowp+0x12c>
+ DB 233,153,0,0,0 ; jmpq 245c4 <_sk_store_bgra_hsw_lowp+0x12c>
DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 233,134,0,0,0 ; jmpq 2df40 <_sk_store_bgra_hsw_lowp+0x12c>
+ DB 233,134,0,0,0 ; jmpq 245c4 <_sk_store_bgra_hsw_lowp+0x12c>
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
@@ -44057,12 +34559,12 @@ _sk_store_bgra_hsw_lowp LABEL PROC
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
DB 196,65,122,127,4,144 ; vmovdqu %xmm8,(%r8,%rdx,4)
- DB 235,85 ; jmp 2df40 <_sk_store_bgra_hsw_lowp+0x12c>
+ DB 235,85 ; jmp 245c4 <_sk_store_bgra_hsw_lowp+0x12c>
DB 196,67,121,22,76,144,40,2 ; vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
DB 196,67,121,22,76,144,36,1 ; vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
DB 196,65,121,126,76,144,32 ; vmovd %xmm9,0x20(%r8,%rdx,4)
DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 235,54 ; jmp 2df40 <_sk_store_bgra_hsw_lowp+0x12c>
+ DB 235,54 ; jmp 245c4 <_sk_store_bgra_hsw_lowp+0x12c>
DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
DB 196,67,121,22,84,144,56,2 ; vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
@@ -44117,24 +34619,24 @@ _sk_load_565_dst_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 2dfbf <_sk_load_565_dst_hsw_lowp+0x3f>
+ DB 119,37 ; ja 24643 <_sk_load_565_dst_hsw_lowp+0x3f>
DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,132,1,0,0 ; lea 0x184(%rip),%r9 # 2e12c <_sk_load_565_dst_hsw_lowp+0x1ac>
+ DB 76,141,13,132,1,0,0 ; lea 0x184(%rip),%r9 # 247b0 <_sk_load_565_dst_hsw_lowp+0x1ac>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,8,1,0,0 ; jmpq 2e0c7 <_sk_load_565_dst_hsw_lowp+0x147>
+ DB 233,8,1,0,0 ; jmpq 2474b <_sk_load_565_dst_hsw_lowp+0x147>
DB 196,193,126,111,36,80 ; vmovdqu (%r8,%rdx,2),%ymm4
- DB 233,253,0,0,0 ; jmpq 2e0c7 <_sk_load_565_dst_hsw_lowp+0x147>
+ DB 233,253,0,0,0 ; jmpq 2474b <_sk_load_565_dst_hsw_lowp+0x147>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,193,89,196,108,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
DB 196,227,85,56,228,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm4
DB 196,193,121,110,44,80 ; vmovd (%r8,%rdx,2),%xmm5
DB 196,227,93,2,229,1 ; vpblendd $0x1,%ymm5,%ymm4,%ymm4
- DB 233,218,0,0,0 ; jmpq 2e0c7 <_sk_load_565_dst_hsw_lowp+0x147>
+ DB 233,218,0,0,0 ; jmpq 2474b <_sk_load_565_dst_hsw_lowp+0x147>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,193,89,196,108,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
DB 196,227,85,56,228,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -44144,7 +34646,7 @@ _sk_load_565_dst_hsw_lowp LABEL PROC
DB 196,227,93,2,229,15 ; vpblendd $0xf,%ymm5,%ymm4,%ymm4
DB 196,193,122,126,44,80 ; vmovq (%r8,%rdx,2),%xmm5
DB 196,227,93,2,229,3 ; vpblendd $0x3,%ymm5,%ymm4,%ymm4
- DB 233,155,0,0,0 ; jmpq 2e0c7 <_sk_load_565_dst_hsw_lowp+0x147>
+ DB 233,155,0,0,0 ; jmpq 2474b <_sk_load_565_dst_hsw_lowp+0x147>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,193,89,196,108,80,20,2 ; vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -44156,7 +34658,7 @@ _sk_load_565_dst_hsw_lowp LABEL PROC
DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
DB 196,193,122,111,44,80 ; vmovdqu (%r8,%rdx,2),%xmm5
DB 196,227,85,2,228,240 ; vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- DB 235,83 ; jmp 2e0c7 <_sk_load_565_dst_hsw_lowp+0x147>
+ DB 235,83 ; jmp 2474b <_sk_load_565_dst_hsw_lowp+0x147>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,193,89,196,108,80,28,6 ; vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -44170,13 +34672,13 @@ _sk_load_565_dst_hsw_lowp LABEL PROC
DB 196,193,122,111,52,80 ; vmovdqu (%r8,%rdx,2),%xmm6
DB 196,227,77,56,237,1 ; vinserti128 $0x1,%xmm5,%ymm6,%ymm5
DB 196,227,85,2,228,192 ; vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- DB 196,226,125,121,45,144,95,0,0 ; vpbroadcastw 0x5f90(%rip),%ymm5 # 34060 <_sk_srcover_rgba_8888_sse2_lowp+0xc2c>
+ DB 196,226,125,121,45,76,91,0,0 ; vpbroadcastw 0x5b4c(%rip),%ymm5 # 2a2a0 <_sk_srcover_rgba_8888_sse2_lowp+0x7e8>
DB 197,205,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm6
DB 197,205,219,237 ; vpand %ymm5,%ymm6,%ymm5
DB 197,205,113,212,5 ; vpsrlw $0x5,%ymm4,%ymm6
- DB 196,226,125,121,61,123,95,0,0 ; vpbroadcastw 0x5f7b(%rip),%ymm7 # 34062 <_sk_srcover_rgba_8888_sse2_lowp+0xc2e>
+ DB 196,226,125,121,61,55,91,0,0 ; vpbroadcastw 0x5b37(%rip),%ymm7 # 2a2a2 <_sk_srcover_rgba_8888_sse2_lowp+0x7ea>
DB 197,205,219,247 ; vpand %ymm7,%ymm6,%ymm6
- DB 196,226,125,121,61,112,95,0,0 ; vpbroadcastw 0x5f70(%rip),%ymm7 # 34064 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
+ DB 196,226,125,121,61,44,91,0,0 ; vpbroadcastw 0x5b2c(%rip),%ymm7 # 2a2a4 <_sk_srcover_rgba_8888_sse2_lowp+0x7ec>
DB 197,221,219,255 ; vpand %ymm7,%ymm4,%ymm7
DB 197,221,113,212,13 ; vpsrlw $0xd,%ymm4,%ymm4
DB 197,213,235,228 ; vpor %ymm4,%ymm5,%ymm4
@@ -44187,7 +34689,7 @@ _sk_load_565_dst_hsw_lowp LABEL PROC
DB 197,197,113,215,2 ; vpsrlw $0x2,%ymm7,%ymm7
DB 197,205,235,247 ; vpor %ymm7,%ymm6,%ymm6
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,61,62,95,0,0 ; vpbroadcastw 0x5f3e(%rip),%ymm7 # 34066 <_sk_srcover_rgba_8888_sse2_lowp+0xc32>
+ DB 196,226,125,121,61,250,90,0,0 ; vpbroadcastw 0x5afa(%rip),%ymm7 # 2a2a6 <_sk_srcover_rgba_8888_sse2_lowp+0x7ee>
DB 255,224 ; jmpq *%rax
DB 102,144 ; xchg %ax,%ax
DB 133,254 ; test %edi,%esi
@@ -44236,10 +34738,10 @@ _sk_store_565_hsw_lowp LABEL PROC
DB 76,15,175,193 ; imul %rcx,%r8
DB 77,1,192 ; add %r8,%r8
DB 76,3,0 ; add (%rax),%r8
- DB 196,98,125,121,5,231,94,0,0 ; vpbroadcastw 0x5ee7(%rip),%ymm8 # 34068 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ DB 196,98,125,121,5,163,90,0,0 ; vpbroadcastw 0x5aa3(%rip),%ymm8 # 2a2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x7f0>
DB 197,181,113,240,8 ; vpsllw $0x8,%ymm0,%ymm9
DB 196,65,53,219,192 ; vpand %ymm8,%ymm9,%ymm8
- DB 196,98,125,121,13,214,94,0,0 ; vpbroadcastw 0x5ed6(%rip),%ymm9 # 3406a <_sk_srcover_rgba_8888_sse2_lowp+0xc36>
+ DB 196,98,125,121,13,146,90,0,0 ; vpbroadcastw 0x5a92(%rip),%ymm9 # 2a2aa <_sk_srcover_rgba_8888_sse2_lowp+0x7f2>
DB 197,173,113,241,3 ; vpsllw $0x3,%ymm1,%ymm10
DB 196,65,45,219,201 ; vpand %ymm9,%ymm10,%ymm9
DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
@@ -44249,31 +34751,31 @@ _sk_store_565_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,31 ; ja 2e1d6 <_sk_store_565_hsw_lowp+0x6e>
+ DB 119,31 ; ja 2485a <_sk_store_565_hsw_lowp+0x6e>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,195,0,0,0 ; lea 0xc3(%rip),%r9 # 2e284 <_sk_store_565_hsw_lowp+0x11c>
+ DB 76,141,13,195,0,0,0 ; lea 0xc3(%rip),%r9 # 24908 <_sk_store_565_hsw_lowp+0x11c>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 196,67,121,21,4,80,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 233,167,0,0,0 ; jmpq 2e27d <_sk_store_565_hsw_lowp+0x115>
+ DB 233,167,0,0,0 ; jmpq 24901 <_sk_store_565_hsw_lowp+0x115>
DB 196,65,126,127,4,80 ; vmovdqu %ymm8,(%r8,%rdx,2)
- DB 233,156,0,0,0 ; jmpq 2e27d <_sk_store_565_hsw_lowp+0x115>
+ DB 233,156,0,0,0 ; jmpq 24901 <_sk_store_565_hsw_lowp+0x115>
DB 196,67,121,21,68,80,4,2 ; vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
DB 196,65,121,126,4,80 ; vmovd %xmm8,(%r8,%rdx,2)
- DB 233,137,0,0,0 ; jmpq 2e27d <_sk_store_565_hsw_lowp+0x115>
+ DB 233,137,0,0,0 ; jmpq 24901 <_sk_store_565_hsw_lowp+0x115>
DB 196,67,121,21,68,80,12,6 ; vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
DB 196,67,121,21,68,80,10,5 ; vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
DB 196,67,121,21,68,80,8,4 ; vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
DB 196,65,121,214,4,80 ; vmovq %xmm8,(%r8,%rdx,2)
- DB 235,105 ; jmp 2e27d <_sk_store_565_hsw_lowp+0x115>
+ DB 235,105 ; jmp 24901 <_sk_store_565_hsw_lowp+0x115>
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
DB 196,67,121,21,76,80,20,2 ; vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
DB 196,67,121,21,76,80,18,1 ; vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
DB 196,67,121,21,76,80,16,0 ; vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- DB 235,55 ; jmp 2e277 <_sk_store_565_hsw_lowp+0x10f>
+ DB 235,55 ; jmp 248fb <_sk_store_565_hsw_lowp+0x10f>
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
DB 196,67,121,21,76,80,28,6 ; vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
@@ -44296,7 +34798,7 @@ _sk_store_565_hsw_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 120,255 ; js 2e299 <_sk_store_565_hsw_lowp+0x131>
+ DB 120,255 ; js 2491d <_sk_store_565_hsw_lowp+0x131>
DB 255 ; (bad)
DB 255,112,255 ; pushq -0x1(%rax)
DB 255 ; (bad)
@@ -44330,38 +34832,38 @@ _sk_load_a8_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 2e2fc <_sk_load_a8_hsw_lowp+0x3c>
+ DB 119,37 ; ja 24980 <_sk_load_a8_hsw_lowp+0x3c>
DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,219,0,0,0 ; lea 0xdb(%rip),%r9 # 2e3c0 <_sk_load_a8_hsw_lowp+0x100>
+ DB 76,141,13,219,0,0,0 ; lea 0xdb(%rip),%r9 # 24a44 <_sk_load_a8_hsw_lowp+0x100>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 233,175,0,0,0 ; jmpq 2e3ab <_sk_load_a8_hsw_lowp+0xeb>
+ DB 233,175,0,0,0 ; jmpq 24a2f <_sk_load_a8_hsw_lowp+0xeb>
DB 196,193,122,111,4,16 ; vmovdqu (%r8,%rdx,1),%xmm0
- DB 233,164,0,0,0 ; jmpq 2e3ab <_sk_load_a8_hsw_lowp+0xeb>
+ DB 233,164,0,0,0 ; jmpq 24a2f <_sk_load_a8_hsw_lowp+0xeb>
DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
DB 196,195,121,32,68,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
DB 197,249,110,200 ; vmovd %eax,%xmm1
DB 196,227,121,14,193,1 ; vpblendw $0x1,%xmm1,%xmm0,%xmm0
- DB 233,132,0,0,0 ; jmpq 2e3ab <_sk_load_a8_hsw_lowp+0xeb>
+ DB 233,132,0,0,0 ; jmpq 24a2f <_sk_load_a8_hsw_lowp+0xeb>
DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
DB 196,195,121,32,68,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
DB 196,195,121,32,68,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
DB 196,195,121,32,68,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
DB 196,193,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm1
DB 196,227,121,2,193,1 ; vpblendd $0x1,%xmm1,%xmm0,%xmm0
- DB 235,90 ; jmp 2e3ab <_sk_load_a8_hsw_lowp+0xeb>
+ DB 235,90 ; jmp 24a2f <_sk_load_a8_hsw_lowp+0xeb>
DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
DB 196,195,121,32,68,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
DB 196,195,121,32,68,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
DB 196,195,121,32,68,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
DB 196,193,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm1
DB 196,227,113,2,192,12 ; vpblendd $0xc,%xmm0,%xmm1,%xmm0
- DB 235,48 ; jmp 2e3ab <_sk_load_a8_hsw_lowp+0xeb>
+ DB 235,48 ; jmp 24a2f <_sk_load_a8_hsw_lowp+0xeb>
DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
DB 196,195,121,32,68,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
DB 196,195,121,32,68,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -44419,38 +34921,38 @@ _sk_load_a8_dst_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 2e438 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ DB 119,37 ; ja 24abc <_sk_load_a8_dst_hsw_lowp+0x3c>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,219,0,0,0 ; lea 0xdb(%rip),%r9 # 2e4fc <_sk_load_a8_dst_hsw_lowp+0x100>
+ DB 76,141,13,219,0,0,0 ; lea 0xdb(%rip),%r9 # 24b80 <_sk_load_a8_dst_hsw_lowp+0x100>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,175,0,0,0 ; jmpq 2e4e7 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ DB 233,175,0,0,0 ; jmpq 24b6b <_sk_load_a8_dst_hsw_lowp+0xeb>
DB 196,193,122,111,36,16 ; vmovdqu (%r8,%rdx,1),%xmm4
- DB 233,164,0,0,0 ; jmpq 2e4e7 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ DB 233,164,0,0,0 ; jmpq 24b6b <_sk_load_a8_dst_hsw_lowp+0xeb>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,195,89,32,100,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
DB 197,249,110,232 ; vmovd %eax,%xmm5
DB 196,227,89,14,229,1 ; vpblendw $0x1,%xmm5,%xmm4,%xmm4
- DB 233,132,0,0,0 ; jmpq 2e4e7 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ DB 233,132,0,0,0 ; jmpq 24b6b <_sk_load_a8_dst_hsw_lowp+0xeb>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,195,89,32,100,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
DB 196,195,89,32,100,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
DB 196,195,89,32,100,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
DB 196,193,121,110,44,16 ; vmovd (%r8,%rdx,1),%xmm5
DB 196,227,89,2,229,1 ; vpblendd $0x1,%xmm5,%xmm4,%xmm4
- DB 235,90 ; jmp 2e4e7 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ DB 235,90 ; jmp 24b6b <_sk_load_a8_dst_hsw_lowp+0xeb>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,195,89,32,100,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
DB 196,195,89,32,100,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
DB 196,195,89,32,100,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
DB 196,193,122,126,44,16 ; vmovq (%r8,%rdx,1),%xmm5
DB 196,227,81,2,228,12 ; vpblendd $0xc,%xmm4,%xmm5,%xmm4
- DB 235,48 ; jmp 2e4e7 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ DB 235,48 ; jmp 24b6b <_sk_load_a8_dst_hsw_lowp+0xeb>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,195,89,32,100,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
DB 196,195,89,32,100,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -44505,7 +35007,7 @@ _sk_store_a8_hsw_lowp LABEL PROC
DB 76,15,175,193 ; imul %rcx,%r8
DB 76,3,0 ; add (%rax),%r8
DB 196,195,125,57,216,1 ; vextracti128 $0x1,%ymm3,%xmm8
- DB 197,121,111,13,93,100,0,0 ; vmovdqa 0x645d(%rip),%xmm9 # 349b0 <_sk_srcover_rgba_8888_sse2_lowp+0x157c>
+ DB 197,121,111,13,249,95,0,0 ; vmovdqa 0x5ff9(%rip),%xmm9 # 2abd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1118>
DB 196,66,57,0,193 ; vpshufb %xmm9,%xmm8,%xmm8
DB 196,66,97,0,201 ; vpshufb %xmm9,%xmm3,%xmm9
DB 196,65,49,108,192 ; vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -44513,28 +35015,28 @@ _sk_store_a8_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,28 ; ja 2e588 <_sk_store_a8_hsw_lowp+0x50>
+ DB 119,28 ; ja 24c0c <_sk_store_a8_hsw_lowp+0x50>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,146,0,0,0 ; lea 0x92(%rip),%r9 # 2e608 <_sk_store_a8_hsw_lowp+0xd0>
+ DB 76,141,13,146,0,0,0 ; lea 0x92(%rip),%r9 # 24c8c <_sk_store_a8_hsw_lowp+0xd0>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 196,67,121,20,4,16,0 ; vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,121 ; jmp 2e601 <_sk_store_a8_hsw_lowp+0xc9>
+ DB 235,121 ; jmp 24c85 <_sk_store_a8_hsw_lowp+0xc9>
DB 196,65,122,127,4,16 ; vmovdqu %xmm8,(%r8,%rdx,1)
- DB 235,113 ; jmp 2e601 <_sk_store_a8_hsw_lowp+0xc9>
+ DB 235,113 ; jmp 24c85 <_sk_store_a8_hsw_lowp+0xc9>
DB 196,67,121,20,68,16,2,2 ; vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
DB 196,67,121,21,4,16,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,96 ; jmp 2e601 <_sk_store_a8_hsw_lowp+0xc9>
+ DB 235,96 ; jmp 24c85 <_sk_store_a8_hsw_lowp+0xc9>
DB 196,67,121,20,68,16,6,6 ; vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
DB 196,67,121,20,68,16,5,5 ; vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
DB 196,67,121,20,68,16,4,4 ; vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
DB 196,65,121,126,4,16 ; vmovd %xmm8,(%r8,%rdx,1)
- DB 235,64 ; jmp 2e601 <_sk_store_a8_hsw_lowp+0xc9>
+ DB 235,64 ; jmp 24c85 <_sk_store_a8_hsw_lowp+0xc9>
DB 196,67,121,20,68,16,10,10 ; vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
DB 196,67,121,20,68,16,9,9 ; vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
DB 196,67,121,20,68,16,8,8 ; vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- DB 235,32 ; jmp 2e5fb <_sk_store_a8_hsw_lowp+0xc3>
+ DB 235,32 ; jmp 24c7f <_sk_store_a8_hsw_lowp+0xc3>
DB 196,67,121,20,68,16,14,14 ; vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
DB 196,67,121,20,68,16,13,13 ; vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
DB 196,67,121,20,68,16,12,12 ; vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -44543,7 +35045,7 @@ _sk_store_a8_hsw_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
DB 15,31,0 ; nopl (%rax)
- DB 119,255 ; ja 2e609 <_sk_store_a8_hsw_lowp+0xd1>
+ DB 119,255 ; ja 24c8d <_sk_store_a8_hsw_lowp+0xd1>
DB 255 ; (bad)
DB 255,144,255,255,255,136 ; callq *-0x77000001(%rax)
DB 255 ; (bad)
@@ -44588,38 +35090,38 @@ _sk_load_g8_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 2e680 <_sk_load_g8_hsw_lowp+0x3c>
+ DB 119,37 ; ja 24d04 <_sk_load_g8_hsw_lowp+0x3c>
DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,227,0,0,0 ; lea 0xe3(%rip),%r9 # 2e74c <_sk_load_g8_hsw_lowp+0x108>
+ DB 76,141,13,227,0,0,0 ; lea 0xe3(%rip),%r9 # 24dd0 <_sk_load_g8_hsw_lowp+0x108>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 233,175,0,0,0 ; jmpq 2e72f <_sk_load_g8_hsw_lowp+0xeb>
+ DB 233,175,0,0,0 ; jmpq 24db3 <_sk_load_g8_hsw_lowp+0xeb>
DB 196,193,122,111,4,16 ; vmovdqu (%r8,%rdx,1),%xmm0
- DB 233,164,0,0,0 ; jmpq 2e72f <_sk_load_g8_hsw_lowp+0xeb>
+ DB 233,164,0,0,0 ; jmpq 24db3 <_sk_load_g8_hsw_lowp+0xeb>
DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
DB 196,195,121,32,68,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
DB 197,249,110,200 ; vmovd %eax,%xmm1
DB 196,227,121,14,193,1 ; vpblendw $0x1,%xmm1,%xmm0,%xmm0
- DB 233,132,0,0,0 ; jmpq 2e72f <_sk_load_g8_hsw_lowp+0xeb>
+ DB 233,132,0,0,0 ; jmpq 24db3 <_sk_load_g8_hsw_lowp+0xeb>
DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
DB 196,195,121,32,68,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
DB 196,195,121,32,68,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
DB 196,195,121,32,68,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
DB 196,193,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm1
DB 196,227,121,2,193,1 ; vpblendd $0x1,%xmm1,%xmm0,%xmm0
- DB 235,90 ; jmp 2e72f <_sk_load_g8_hsw_lowp+0xeb>
+ DB 235,90 ; jmp 24db3 <_sk_load_g8_hsw_lowp+0xeb>
DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
DB 196,195,121,32,68,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
DB 196,195,121,32,68,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
DB 196,195,121,32,68,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
DB 196,193,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm1
DB 196,227,113,2,192,12 ; vpblendd $0xc,%xmm0,%xmm1,%xmm0
- DB 235,48 ; jmp 2e72f <_sk_load_g8_hsw_lowp+0xeb>
+ DB 235,48 ; jmp 24db3 <_sk_load_g8_hsw_lowp+0xeb>
DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
DB 196,195,121,32,68,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
DB 196,195,121,32,68,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -44629,7 +35131,7 @@ _sk_load_g8_hsw_lowp LABEL PROC
DB 196,227,113,2,192,8 ; vpblendd $0x8,%xmm0,%xmm1,%xmm0
DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,29,45,89,0,0 ; vpbroadcastw 0x592d(%rip),%ymm3 # 3406c <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
+ DB 196,226,125,121,29,233,84,0,0 ; vpbroadcastw 0x54e9(%rip),%ymm3 # 2a2ac <_sk_srcover_rgba_8888_sse2_lowp+0x7f4>
DB 197,253,111,200 ; vmovdqa %ymm0,%ymm1
DB 197,253,111,208 ; vmovdqa %ymm0,%ymm2
DB 255,224 ; jmpq *%rax
@@ -44643,7 +35145,7 @@ _sk_load_g8_hsw_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 123,255 ; jnp 2e759 <_sk_load_g8_hsw_lowp+0x115>
+ DB 123,255 ; jnp 24ddd <_sk_load_g8_hsw_lowp+0x115>
DB 255 ; (bad)
DB 255,115,255 ; pushq -0x1(%rbx)
DB 255 ; (bad)
@@ -44679,38 +35181,38 @@ _sk_load_g8_dst_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 2e7c4 <_sk_load_g8_dst_hsw_lowp+0x3c>
+ DB 119,37 ; ja 24e48 <_sk_load_g8_dst_hsw_lowp+0x3c>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,227,0,0,0 ; lea 0xe3(%rip),%r9 # 2e890 <_sk_load_g8_dst_hsw_lowp+0x108>
+ DB 76,141,13,227,0,0,0 ; lea 0xe3(%rip),%r9 # 24f14 <_sk_load_g8_dst_hsw_lowp+0x108>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,175,0,0,0 ; jmpq 2e873 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ DB 233,175,0,0,0 ; jmpq 24ef7 <_sk_load_g8_dst_hsw_lowp+0xeb>
DB 196,193,122,111,36,16 ; vmovdqu (%r8,%rdx,1),%xmm4
- DB 233,164,0,0,0 ; jmpq 2e873 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ DB 233,164,0,0,0 ; jmpq 24ef7 <_sk_load_g8_dst_hsw_lowp+0xeb>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,195,89,32,100,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
DB 197,249,110,232 ; vmovd %eax,%xmm5
DB 196,227,89,14,229,1 ; vpblendw $0x1,%xmm5,%xmm4,%xmm4
- DB 233,132,0,0,0 ; jmpq 2e873 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ DB 233,132,0,0,0 ; jmpq 24ef7 <_sk_load_g8_dst_hsw_lowp+0xeb>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,195,89,32,100,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
DB 196,195,89,32,100,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
DB 196,195,89,32,100,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
DB 196,193,121,110,44,16 ; vmovd (%r8,%rdx,1),%xmm5
DB 196,227,89,2,229,1 ; vpblendd $0x1,%xmm5,%xmm4,%xmm4
- DB 235,90 ; jmp 2e873 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ DB 235,90 ; jmp 24ef7 <_sk_load_g8_dst_hsw_lowp+0xeb>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,195,89,32,100,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
DB 196,195,89,32,100,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
DB 196,195,89,32,100,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
DB 196,193,122,126,44,16 ; vmovq (%r8,%rdx,1),%xmm5
DB 196,227,81,2,228,12 ; vpblendd $0xc,%xmm4,%xmm5,%xmm4
- DB 235,48 ; jmp 2e873 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ DB 235,48 ; jmp 24ef7 <_sk_load_g8_dst_hsw_lowp+0xeb>
DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
DB 196,195,89,32,100,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
DB 196,195,89,32,100,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -44720,7 +35222,7 @@ _sk_load_g8_dst_hsw_lowp LABEL PROC
DB 196,227,81,2,228,8 ; vpblendd $0x8,%xmm4,%xmm5,%xmm4
DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,61,235,87,0,0 ; vpbroadcastw 0x57eb(%rip),%ymm7 # 3406e <_sk_srcover_rgba_8888_sse2_lowp+0xc3a>
+ DB 196,226,125,121,61,167,83,0,0 ; vpbroadcastw 0x53a7(%rip),%ymm7 # 2a2ae <_sk_srcover_rgba_8888_sse2_lowp+0x7f6>
DB 197,253,111,236 ; vmovdqa %ymm4,%ymm5
DB 197,253,111,244 ; vmovdqa %ymm4,%ymm6
DB 255,224 ; jmpq *%rax
@@ -44734,7 +35236,7 @@ _sk_load_g8_dst_hsw_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 123,255 ; jnp 2e89d <_sk_load_g8_dst_hsw_lowp+0x115>
+ DB 123,255 ; jnp 24f21 <_sk_load_g8_dst_hsw_lowp+0x115>
DB 255 ; (bad)
DB 255,115,255 ; pushq -0x1(%rbx)
DB 255 ; (bad)
@@ -44764,13 +35266,13 @@ PUBLIC _sk_scale_1_float_hsw_lowp
_sk_scale_1_float_hsw_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,122,16,0 ; vmovss (%rax),%xmm8
- DB 197,122,16,13,250,87,0,0 ; vmovss 0x57fa(%rip),%xmm9 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 196,98,57,169,13,193,87,0,0 ; vfmadd213ss 0x57c1(%rip),%xmm8,%xmm9 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 197,122,16,13,182,83,0,0 ; vmovss 0x53b6(%rip),%xmm9 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ DB 196,98,57,169,13,125,83,0,0 ; vfmadd213ss 0x537d(%rip),%xmm8,%xmm9 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,193,122,44,193 ; vcvttss2si %xmm9,%eax
DB 197,121,110,192 ; vmovd %eax,%xmm8
DB 196,66,125,121,192 ; vpbroadcastw %xmm8,%ymm8
DB 197,189,213,192 ; vpmullw %ymm0,%ymm8,%ymm0
- DB 196,98,125,121,13,114,87,0,0 ; vpbroadcastw 0x5772(%rip),%ymm9 # 34070 <_sk_srcover_rgba_8888_sse2_lowp+0xc3c>
+ DB 196,98,125,121,13,46,83,0,0 ; vpbroadcastw 0x532e(%rip),%ymm9 # 2a2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x7f8>
DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
DB 197,189,213,201 ; vpmullw %ymm1,%ymm8,%ymm1
@@ -44795,38 +35297,38 @@ _sk_scale_u8_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,38 ; ja 2e973 <_sk_scale_u8_hsw_lowp+0x3d>
+ DB 119,38 ; ja 24ff7 <_sk_scale_u8_hsw_lowp+0x3d>
DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,20,1,0,0 ; lea 0x114(%rip),%r9 # 2ea70 <_sk_scale_u8_hsw_lowp+0x13a>
+ DB 76,141,13,20,1,0,0 ; lea 0x114(%rip),%r9 # 250f4 <_sk_scale_u8_hsw_lowp+0x13a>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,179,0,0,0 ; jmpq 2ea26 <_sk_scale_u8_hsw_lowp+0xf0>
+ DB 233,179,0,0,0 ; jmpq 250aa <_sk_scale_u8_hsw_lowp+0xf0>
DB 196,65,122,111,4,16 ; vmovdqu (%r8,%rdx,1),%xmm8
- DB 233,168,0,0,0 ; jmpq 2ea26 <_sk_scale_u8_hsw_lowp+0xf0>
+ DB 233,168,0,0,0 ; jmpq 250aa <_sk_scale_u8_hsw_lowp+0xf0>
DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
DB 196,67,57,32,68,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
DB 197,121,110,200 ; vmovd %eax,%xmm9
DB 196,67,57,14,193,1 ; vpblendw $0x1,%xmm9,%xmm8,%xmm8
- DB 233,135,0,0,0 ; jmpq 2ea26 <_sk_scale_u8_hsw_lowp+0xf0>
+ DB 233,135,0,0,0 ; jmpq 250aa <_sk_scale_u8_hsw_lowp+0xf0>
DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
DB 196,67,57,32,68,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
DB 196,67,57,32,68,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
DB 196,67,57,32,68,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
DB 196,65,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm9
DB 196,67,57,2,193,1 ; vpblendd $0x1,%xmm9,%xmm8,%xmm8
- DB 235,92 ; jmp 2ea26 <_sk_scale_u8_hsw_lowp+0xf0>
+ DB 235,92 ; jmp 250aa <_sk_scale_u8_hsw_lowp+0xf0>
DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
DB 196,67,57,32,68,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
DB 196,67,57,32,68,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
DB 196,67,57,32,68,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
DB 196,65,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm9
DB 196,67,49,2,192,12 ; vpblendd $0xc,%xmm8,%xmm9,%xmm8
- DB 235,49 ; jmp 2ea26 <_sk_scale_u8_hsw_lowp+0xf0>
+ DB 235,49 ; jmp 250aa <_sk_scale_u8_hsw_lowp+0xf0>
DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
DB 196,67,57,32,68,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
DB 196,67,57,32,68,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -44836,7 +35338,7 @@ _sk_scale_u8_hsw_lowp LABEL PROC
DB 196,67,49,2,192,8 ; vpblendd $0x8,%xmm8,%xmm9,%xmm8
DB 196,66,125,48,192 ; vpmovzxbw %xmm8,%ymm8
DB 197,189,213,192 ; vpmullw %ymm0,%ymm8,%ymm0
- DB 196,98,125,121,13,58,86,0,0 ; vpbroadcastw 0x563a(%rip),%ymm9 # 34072 <_sk_srcover_rgba_8888_sse2_lowp+0xc3e>
+ DB 196,98,125,121,13,246,81,0,0 ; vpbroadcastw 0x51f6(%rip),%ymm9 # 2a2b2 <_sk_srcover_rgba_8888_sse2_lowp+0x7fa>
DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
DB 197,189,213,201 ; vpmullw %ymm1,%ymm8,%ymm1
@@ -44887,12 +35389,12 @@ PUBLIC _sk_lerp_1_float_hsw_lowp
_sk_lerp_1_float_hsw_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 197,122,16,0 ; vmovss (%rax),%xmm8
- DB 197,122,16,13,26,86,0,0 ; vmovss 0x561a(%rip),%xmm9 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 196,98,57,169,13,225,85,0,0 ; vfmadd213ss 0x55e1(%rip),%xmm8,%xmm9 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 197,122,16,13,214,81,0,0 ; vmovss 0x51d6(%rip),%xmm9 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ DB 196,98,57,169,13,157,81,0,0 ; vfmadd213ss 0x519d(%rip),%xmm8,%xmm9 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 196,193,122,44,193 ; vcvttss2si %xmm9,%eax
DB 197,121,110,192 ; vmovd %eax,%xmm8
DB 196,66,125,121,192 ; vpbroadcastw %xmm8,%ymm8
- DB 196,98,125,121,13,154,85,0,0 ; vpbroadcastw 0x559a(%rip),%ymm9 # 34074 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ DB 196,98,125,121,13,86,81,0,0 ; vpbroadcastw 0x5156(%rip),%ymm9 # 2a2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x7fc>
DB 196,65,53,249,208 ; vpsubw %ymm8,%ymm9,%ymm10
DB 197,45,213,220 ; vpmullw %ymm4,%ymm10,%ymm11
DB 197,189,213,192 ; vpmullw %ymm0,%ymm8,%ymm0
@@ -44927,38 +35429,38 @@ _sk_lerp_u8_hsw_lowp LABEL PROC
DB 36,15 ; and $0xf,%al
DB 254,200 ; dec %al
DB 60,14 ; cmp $0xe,%al
- DB 119,38 ; ja 2eb78 <_sk_lerp_u8_hsw_lowp+0x3d>
+ DB 119,38 ; ja 251fc <_sk_lerp_u8_hsw_lowp+0x3d>
DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,59,1,0,0 ; lea 0x13b(%rip),%r9 # 2ec9c <_sk_lerp_u8_hsw_lowp+0x161>
+ DB 76,141,13,59,1,0,0 ; lea 0x13b(%rip),%r9 # 25320 <_sk_lerp_u8_hsw_lowp+0x161>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,179,0,0,0 ; jmpq 2ec2b <_sk_lerp_u8_hsw_lowp+0xf0>
+ DB 233,179,0,0,0 ; jmpq 252af <_sk_lerp_u8_hsw_lowp+0xf0>
DB 196,65,122,111,4,16 ; vmovdqu (%r8,%rdx,1),%xmm8
- DB 233,168,0,0,0 ; jmpq 2ec2b <_sk_lerp_u8_hsw_lowp+0xf0>
+ DB 233,168,0,0,0 ; jmpq 252af <_sk_lerp_u8_hsw_lowp+0xf0>
DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
DB 196,67,57,32,68,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
DB 197,121,110,200 ; vmovd %eax,%xmm9
DB 196,67,57,14,193,1 ; vpblendw $0x1,%xmm9,%xmm8,%xmm8
- DB 233,135,0,0,0 ; jmpq 2ec2b <_sk_lerp_u8_hsw_lowp+0xf0>
+ DB 233,135,0,0,0 ; jmpq 252af <_sk_lerp_u8_hsw_lowp+0xf0>
DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
DB 196,67,57,32,68,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
DB 196,67,57,32,68,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
DB 196,67,57,32,68,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
DB 196,65,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm9
DB 196,67,57,2,193,1 ; vpblendd $0x1,%xmm9,%xmm8,%xmm8
- DB 235,92 ; jmp 2ec2b <_sk_lerp_u8_hsw_lowp+0xf0>
+ DB 235,92 ; jmp 252af <_sk_lerp_u8_hsw_lowp+0xf0>
DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
DB 196,67,57,32,68,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
DB 196,67,57,32,68,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
DB 196,67,57,32,68,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
DB 196,65,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm9
DB 196,67,49,2,192,12 ; vpblendd $0xc,%xmm8,%xmm9,%xmm8
- DB 235,49 ; jmp 2ec2b <_sk_lerp_u8_hsw_lowp+0xf0>
+ DB 235,49 ; jmp 252af <_sk_lerp_u8_hsw_lowp+0xf0>
DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
DB 196,67,57,32,68,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
DB 196,67,57,32,68,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -44967,7 +35469,7 @@ _sk_lerp_u8_hsw_lowp LABEL PROC
DB 196,67,49,34,76,16,8,2 ; vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
DB 196,67,49,2,192,8 ; vpblendd $0x8,%xmm8,%xmm9,%xmm8
DB 196,66,125,48,192 ; vpmovzxbw %xmm8,%ymm8
- DB 196,98,125,121,13,61,84,0,0 ; vpbroadcastw 0x543d(%rip),%ymm9 # 34076 <_sk_srcover_rgba_8888_sse2_lowp+0xc42>
+ DB 196,98,125,121,13,249,79,0,0 ; vpbroadcastw 0x4ff9(%rip),%ymm9 # 2a2b6 <_sk_srcover_rgba_8888_sse2_lowp+0x7fe>
DB 196,65,61,239,209 ; vpxor %ymm9,%ymm8,%ymm10
DB 197,45,213,220 ; vpmullw %ymm4,%ymm10,%ymm11
DB 197,189,213,192 ; vpmullw %ymm0,%ymm8,%ymm0
@@ -45001,10 +35503,10 @@ _sk_lerp_u8_hsw_lowp LABEL PROC
DB 255,231 ; jmpq *%rdi
DB 254 ; (bad)
DB 255 ; (bad)
- DB 255,37,255,255,255,29 ; jmpq *0x1dffffff(%rip) # 1e02ecac <_sk_srcover_rgba_8888_sse2_lowp+0x1dffb878>
+ DB 255,37,255,255,255,29 ; jmpq *0x1dffffff(%rip) # 1e025330 <_sk_srcover_rgba_8888_sse2_lowp+0x1dffb878>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,21,255,255,255,8 ; callq *0x8ffffff(%rip) # 902ecb4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ffb880>
+ DB 255,21,255,255,255,8 ; callq *0x8ffffff(%rip) # 9025338 <_sk_srcover_rgba_8888_sse2_lowp+0x8ffb880>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,80,255 ; callq *-0x1(%rax)
@@ -45017,7 +35519,7 @@ _sk_lerp_u8_hsw_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 123,255 ; jnp 2ecc9 <_sk_lerp_u8_hsw_lowp+0x18e>
+ DB 123,255 ; jnp 2534d <_sk_lerp_u8_hsw_lowp+0x18e>
DB 255 ; (bad)
DB 255,115,255 ; pushq -0x1(%rbx)
DB 255 ; (bad)
@@ -45040,9 +35542,9 @@ _sk_srcover_rgba_8888_hsw_lowp LABEL PROC
DB 65,254,202 ; dec %r10b
DB 69,15,182,194 ; movzbl %r10b,%r8d
DB 65,128,248,14 ; cmp $0xe,%r8b
- DB 119,51 ; ja 2ed34 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ DB 119,51 ; ja 253b8 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 76,141,29,236,2,0,0 ; lea 0x2ec(%rip),%r11 # 2eff8 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
+ DB 76,141,29,236,2,0,0 ; lea 0x2ec(%rip),%r11 # 2567c <_sk_srcover_rgba_8888_hsw_lowp+0x320>
DB 75,99,4,131 ; movslq (%r11,%r8,4),%rax
DB 76,1,216 ; add %r11,%rax
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -45052,10 +35554,10 @@ _sk_srcover_rgba_8888_hsw_lowp LABEL PROC
DB 255,224 ; jmpq *%rax
DB 196,193,121,110,41 ; vmovd (%r9),%xmm5
DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 233,22,1,0,0 ; jmpq 2ee4a <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ DB 233,22,1,0,0 ; jmpq 254ce <_sk_srcover_rgba_8888_hsw_lowp+0x172>
DB 196,193,126,111,41 ; vmovdqu (%r9),%ymm5
DB 196,193,126,111,97,32 ; vmovdqu 0x20(%r9),%ymm4
- DB 233,6,1,0,0 ; jmpq 2ee4a <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ DB 233,6,1,0,0 ; jmpq 254ce <_sk_srcover_rgba_8888_hsw_lowp+0x172>
DB 196,193,121,110,97,8 ; vmovd 0x8(%r9),%xmm4
DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
@@ -45064,7 +35566,7 @@ _sk_srcover_rgba_8888_hsw_lowp LABEL PROC
DB 197,249,112,237,232 ; vpshufd $0xe8,%xmm5,%xmm5
DB 196,227,93,2,237,3 ; vpblendd $0x3,%ymm5,%ymm4,%ymm5
DB 197,253,111,231 ; vmovdqa %ymm7,%ymm4
- DB 233,216,0,0,0 ; jmpq 2ee4a <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ DB 233,216,0,0,0 ; jmpq 254ce <_sk_srcover_rgba_8888_hsw_lowp+0x172>
DB 196,193,121,110,97,24 ; vmovd 0x18(%r9),%xmm4
DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -45080,7 +35582,7 @@ _sk_srcover_rgba_8888_hsw_lowp LABEL PROC
DB 196,193,122,111,41 ; vmovdqu (%r9),%xmm5
DB 196,227,85,2,236,240 ; vpblendd $0xf0,%ymm4,%ymm5,%ymm5
DB 197,125,127,196 ; vmovdqa %ymm8,%ymm4
- DB 233,129,0,0,0 ; jmpq 2ee4a <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ DB 233,129,0,0,0 ; jmpq 254ce <_sk_srcover_rgba_8888_hsw_lowp+0x172>
DB 196,193,121,110,97,40 ; vmovd 0x28(%r9),%xmm4
DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -45090,7 +35592,7 @@ _sk_srcover_rgba_8888_hsw_lowp LABEL PROC
DB 196,193,121,110,105,32 ; vmovd 0x20(%r9),%xmm5
DB 196,227,93,2,229,1 ; vpblendd $0x1,%ymm5,%ymm4,%ymm4
DB 196,193,126,111,41 ; vmovdqu (%r9),%ymm5
- DB 235,76 ; jmp 2ee4a <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ DB 235,76 ; jmp 254ce <_sk_srcover_rgba_8888_hsw_lowp+0x172>
DB 196,193,121,110,97,56 ; vmovd 0x38(%r9),%xmm4
DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
@@ -45110,9 +35612,9 @@ _sk_srcover_rgba_8888_hsw_lowp LABEL PROC
DB 196,227,69,14,236,170 ; vpblendw $0xaa,%ymm4,%ymm7,%ymm5
DB 196,227,77,14,228,170 ; vpblendw $0xaa,%ymm4,%ymm6,%ymm4
DB 196,226,93,43,237 ; vpackusdw %ymm5,%ymm4,%ymm5
- DB 197,125,111,5,13,82,0,0 ; vmovdqa 0x520d(%rip),%ymm8 # 34080 <_sk_srcover_rgba_8888_sse2_lowp+0xc4c>
+ DB 197,125,111,5,201,77,0,0 ; vmovdqa 0x4dc9(%rip),%ymm8 # 2a2c0 <_sk_srcover_rgba_8888_sse2_lowp+0x808>
DB 196,193,85,219,224 ; vpand %ymm8,%ymm5,%ymm4
- DB 196,98,125,121,13,31,82,0,0 ; vpbroadcastw 0x521f(%rip),%ymm9 # 340a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc6c>
+ DB 196,98,125,121,13,219,77,0,0 ; vpbroadcastw 0x4ddb(%rip),%ymm9 # 2a2e0 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
DB 197,197,114,215,16 ; vpsrld $0x10,%ymm7,%ymm7
DB 197,205,114,214,16 ; vpsrld $0x10,%ymm6,%ymm6
@@ -45151,19 +35653,19 @@ _sk_srcover_rgba_8888_hsw_lowp LABEL PROC
DB 196,193,53,114,243,16 ; vpslld $0x10,%ymm11,%ymm9
DB 196,65,53,235,202 ; vpor %ymm10,%ymm9,%ymm9
DB 65,128,250,14 ; cmp $0xe,%r10b
- DB 119,26 ; ja 2ef5b <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- DB 76,141,21,236,0,0,0 ; lea 0xec(%rip),%r10 # 2f034 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
+ DB 119,26 ; ja 255df <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ DB 76,141,21,236,0,0,0 ; lea 0xec(%rip),%r10 # 256b8 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
DB 75,99,4,130 ; movslq (%r10,%r8,4),%rax
DB 76,1,208 ; add %r10,%rax
DB 255,224 ; jmpq *%rax
DB 196,65,121,126,1 ; vmovd %xmm8,(%r9)
- DB 233,151,0,0,0 ; jmpq 2eff2 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ DB 233,151,0,0,0 ; jmpq 25676 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
DB 196,65,126,127,1 ; vmovdqu %ymm8,(%r9)
DB 196,65,126,127,73,32 ; vmovdqu %ymm9,0x20(%r9)
- DB 233,135,0,0,0 ; jmpq 2eff2 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ DB 233,135,0,0,0 ; jmpq 25676 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
DB 196,67,121,22,65,8,2 ; vpextrd $0x2,%xmm8,0x8(%r9)
DB 196,65,121,214,1 ; vmovq %xmm8,(%r9)
- DB 235,121 ; jmp 2eff2 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ DB 235,121 ; jmp 25676 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
DB 196,67,121,22,73,24,2 ; vpextrd $0x2,%xmm9,0x18(%r9)
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
@@ -45171,12 +35673,12 @@ _sk_srcover_rgba_8888_hsw_lowp LABEL PROC
DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
DB 196,65,121,126,73,16 ; vmovd %xmm9,0x10(%r9)
DB 196,65,122,127,1 ; vmovdqu %xmm8,(%r9)
- DB 235,76 ; jmp 2eff2 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ DB 235,76 ; jmp 25676 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
DB 196,67,121,22,73,40,2 ; vpextrd $0x2,%xmm9,0x28(%r9)
DB 196,67,121,22,73,36,1 ; vpextrd $0x1,%xmm9,0x24(%r9)
DB 196,65,121,126,73,32 ; vmovd %xmm9,0x20(%r9)
DB 196,65,126,127,1 ; vmovdqu %ymm8,(%r9)
- DB 235,49 ; jmp 2eff2 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ DB 235,49 ; jmp 25676 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
DB 196,67,121,22,81,56,2 ; vpextrd $0x2,%xmm10,0x38(%r9)
DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
@@ -45224,7 +35726,7 @@ _sk_srcover_rgba_8888_hsw_lowp LABEL PROC
DB 255,6 ; incl (%rsi)
DB 254 ; (bad)
DB 255 ; (bad)
- DB 255,29,255,255,255,62 ; lcall *0x3effffff(%rip) # 3f02f038 <_sk_srcover_rgba_8888_sse2_lowp+0x3effbc04>
+ DB 255,29,255,255,255,62 ; lcall *0x3effffff(%rip) # 3f0256bc <_sk_srcover_rgba_8888_sse2_lowp+0x3effbc04>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,55 ; pushq (%rdi)
@@ -45242,7 +35744,7 @@ _sk_srcover_rgba_8888_hsw_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 121,255 ; jns 2f059 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
+ DB 121,255 ; jns 256dd <_sk_srcover_rgba_8888_hsw_lowp+0x381>
DB 255 ; (bad)
DB 255,114,255 ; pushq -0x1(%rdx)
DB 255 ; (bad)
@@ -45285,13 +35787,13 @@ _sk_start_pipeline_sse41_lowp LABEL PROC
DB 73,137,246 ; mov %rsi,%r14
DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
DB 76,57,203 ; cmp %r9,%rbx
- DB 15,131,153,0,0,0 ; jae 2f18a <_sk_start_pipeline_sse41_lowp+0x11a>
+ DB 15,131,153,0,0,0 ; jae 2580e <_sk_start_pipeline_sse41_lowp+0x11a>
DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
DB 72,141,64,8 ; lea 0x8(%rax),%rax
DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 119,62 ; ja 2f151 <_sk_start_pipeline_sse41_lowp+0xe1>
+ DB 119,62 ; ja 257d5 <_sk_start_pipeline_sse41_lowp+0xe1>
DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
DB 49,255 ; xor %edi,%edi
DB 15,87,192 ; xorps %xmm0,%xmm0
@@ -45310,10 +35812,10 @@ _sk_start_pipeline_sse41_lowp LABEL PROC
DB 73,131,196,16 ; add $0x10,%r12
DB 77,57,252 ; cmp %r15,%r12
DB 73,137,212 ; mov %rdx,%r12
- DB 118,201 ; jbe 2f11a <_sk_start_pipeline_sse41_lowp+0xaa>
+ DB 118,201 ; jbe 2579e <_sk_start_pipeline_sse41_lowp+0xaa>
DB 76,137,255 ; mov %r15,%rdi
DB 72,41,215 ; sub %rdx,%rdi
- DB 116,33 ; je 2f17a <_sk_start_pipeline_sse41_lowp+0x10a>
+ DB 116,33 ; je 257fe <_sk_start_pipeline_sse41_lowp+0x10a>
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,87,201 ; xorps %xmm1,%xmm1
DB 15,87,210 ; xorps %xmm2,%xmm2
@@ -45327,7 +35829,7 @@ _sk_start_pipeline_sse41_lowp LABEL PROC
DB 65,255,213 ; callq *%r13
DB 72,255,195 ; inc %rbx
DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 15,133,121,255,255,255 ; jne 2f103 <_sk_start_pipeline_sse41_lowp+0x93>
+ DB 15,133,121,255,255,255 ; jne 25787 <_sk_start_pipeline_sse41_lowp+0x93>
DB 15,40,181,32,255,255,255 ; movaps -0xe0(%rbp),%xmm6
DB 15,40,189,48,255,255,255 ; movaps -0xd0(%rbp),%xmm7
DB 68,15,40,133,64,255,255,255 ; movaps -0xc0(%rbp),%xmm8
@@ -45378,7 +35880,7 @@ _sk_uniform_color_sse41_lowp LABEL PROC
PUBLIC _sk_black_color_sse41_lowp
_sk_black_color_sse41_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,34,80,0,0 ; movaps 0x5022(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 15,40,29,190,75,0,0 ; movaps 0x4bbe(%rip),%xmm3 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,87,201 ; xorps %xmm1,%xmm1
DB 15,87,210 ; xorps %xmm2,%xmm2
@@ -45387,7 +35889,7 @@ _sk_black_color_sse41_lowp LABEL PROC
PUBLIC _sk_white_color_sse41_lowp
_sk_white_color_sse41_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,5,14,80,0,0 ; movaps 0x500e(%rip),%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 15,40,5,170,75,0,0 ; movaps 0x4baa(%rip),%xmm0 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,40,216 ; movaps %xmm0,%xmm3
@@ -45396,10 +35898,10 @@ _sk_white_color_sse41_lowp LABEL PROC
PUBLIC _sk_set_rgb_sse41_lowp
_sk_set_rgb_sse41_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,21,109,78,0,0 ; movss 0x4e6d(%rip),%xmm2 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 243,15,16,21,41,74,0,0 ; movss 0x4a29(%rip),%xmm2 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 243,15,16,0 ; movss (%rax),%xmm0
DB 243,15,89,194 ; mulss %xmm2,%xmm0
- DB 243,68,15,16,5,44,78,0,0 ; movss 0x4e2c(%rip),%xmm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 243,68,15,16,5,232,73,0,0 ; movss 0x49e8(%rip),%xmm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 243,65,15,88,192 ; addss %xmm8,%xmm0
DB 243,68,15,44,192 ; cvttss2si %xmm0,%r8d
DB 102,65,15,110,192 ; movd %r8d,%xmm0
@@ -45424,7 +35926,7 @@ _sk_set_rgb_sse41_lowp LABEL PROC
PUBLIC _sk_premul_sse41_lowp
_sk_premul_sse41_lowp LABEL PROC
DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,68,15,111,5,128,79,0,0 ; movdqa 0x4f80(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,28,75,0,0 ; movdqa 0x4b1c(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,15,213,203 ; pmullw %xmm3,%xmm1
@@ -45464,7 +35966,7 @@ _sk_move_dst_src_sse41_lowp LABEL PROC
PUBLIC _sk_invert_sse41_lowp
_sk_invert_sse41_lowp LABEL PROC
- DB 102,68,15,111,5,30,79,0,0 ; movdqa 0x4f1e(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,186,74,0,0 ; movdqa 0x4aba(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
DB 102,68,15,249,200 ; psubw %xmm0,%xmm9
DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
@@ -45492,7 +35994,7 @@ PUBLIC _sk_srcatop_sse41_lowp
_sk_srcatop_sse41_lowp LABEL PROC
DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,111,29,194,78,0,0 ; movdqa 0x4ec2(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,111,29,94,74,0,0 ; movdqa 0x4a5e(%rip),%xmm3 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
DB 102,69,15,249,200 ; psubw %xmm8,%xmm9
DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
@@ -45522,7 +36024,7 @@ PUBLIC _sk_dstatop_sse41_lowp
_sk_dstatop_sse41_lowp LABEL PROC
DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
DB 102,68,15,213,195 ; pmullw %xmm3,%xmm8
- DB 102,68,15,111,13,66,78,0,0 ; movdqa 0x4e42(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,222,73,0,0 ; movdqa 0x49de(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
@@ -45549,7 +36051,7 @@ _sk_dstatop_sse41_lowp LABEL PROC
PUBLIC _sk_srcin_sse41_lowp
_sk_srcin_sse41_lowp LABEL PROC
DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,68,15,111,5,205,77,0,0 ; movdqa 0x4dcd(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,105,73,0,0 ; movdqa 0x4969(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,15,213,207 ; pmullw %xmm7,%xmm1
@@ -45568,7 +36070,7 @@ PUBLIC _sk_dstin_sse41_lowp
_sk_dstin_sse41_lowp LABEL PROC
DB 102,15,111,196 ; movdqa %xmm4,%xmm0
DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,68,15,111,5,132,77,0,0 ; movdqa 0x4d84(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,32,73,0,0 ; movdqa 0x4920(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,15,111,205 ; movdqa %xmm5,%xmm1
@@ -45587,7 +36089,7 @@ _sk_dstin_sse41_lowp LABEL PROC
PUBLIC _sk_srcout_sse41_lowp
_sk_srcout_sse41_lowp LABEL PROC
- DB 102,68,15,111,5,59,77,0,0 ; movdqa 0x4d3b(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,215,72,0,0 ; movdqa 0x48d7(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
DB 102,68,15,249,207 ; psubw %xmm7,%xmm9
DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
@@ -45608,7 +36110,7 @@ _sk_srcout_sse41_lowp LABEL PROC
PUBLIC _sk_dstout_sse41_lowp
_sk_dstout_sse41_lowp LABEL PROC
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,68,15,111,5,228,76,0,0 ; movdqa 0x4ce4(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,128,72,0,0 ; movdqa 0x4880(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
DB 102,15,249,216 ; psubw %xmm0,%xmm3
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
@@ -45631,7 +36133,7 @@ _sk_dstout_sse41_lowp LABEL PROC
PUBLIC _sk_srcover_sse41_lowp
_sk_srcover_sse41_lowp LABEL PROC
- DB 102,68,15,111,13,138,76,0,0 ; movdqa 0x4c8a(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,38,72,0,0 ; movdqa 0x4826(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
@@ -45658,7 +36160,7 @@ _sk_srcover_sse41_lowp LABEL PROC
PUBLIC _sk_dstover_sse41_lowp
_sk_dstover_sse41_lowp LABEL PROC
- DB 102,68,15,111,5,16,76,0,0 ; movdqa 0x4c10(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,172,71,0,0 ; movdqa 0x47ac(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
DB 102,68,15,249,207 ; psubw %xmm7,%xmm9
DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
@@ -45683,7 +36185,7 @@ _sk_dstover_sse41_lowp LABEL PROC
PUBLIC _sk_modulate_sse41_lowp
_sk_modulate_sse41_lowp LABEL PROC
DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,68,15,111,5,169,75,0,0 ; movdqa 0x4ba9(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,69,71,0,0 ; movdqa 0x4745(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,15,213,205 ; pmullw %xmm5,%xmm1
@@ -45700,7 +36202,7 @@ _sk_modulate_sse41_lowp LABEL PROC
PUBLIC _sk_multiply_sse41_lowp
_sk_multiply_sse41_lowp LABEL PROC
- DB 102,68,15,111,13,104,75,0,0 ; movdqa 0x4b68(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,4,71,0,0 ; movdqa 0x4704(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
@@ -45741,7 +36243,7 @@ _sk_multiply_sse41_lowp LABEL PROC
PUBLIC _sk_plus__sse41_lowp
_sk_plus__sse41_lowp LABEL PROC
DB 102,15,253,196 ; paddw %xmm4,%xmm0
- DB 102,68,15,111,5,173,74,0,0 ; movdqa 0x4aad(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,73,70,0,0 ; movdqa 0x4649(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,56,58,192 ; pminuw %xmm8,%xmm0
DB 102,15,253,205 ; paddw %xmm5,%xmm1
DB 102,65,15,56,58,200 ; pminuw %xmm8,%xmm1
@@ -45759,7 +36261,7 @@ _sk_screen_sse41_lowp LABEL PROC
DB 102,15,111,196 ; movdqa %xmm4,%xmm0
DB 102,15,253,193 ; paddw %xmm1,%xmm0
DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,68,15,111,21,103,74,0,0 ; movdqa 0x4a67(%rip),%xmm10 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,21,3,70,0,0 ; movdqa 0x4603(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
@@ -45789,7 +36291,7 @@ _sk_screen_sse41_lowp LABEL PROC
PUBLIC _sk_xor__sse41_lowp
_sk_xor__sse41_lowp LABEL PROC
DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,111,13,229,73,0,0 ; movdqa 0x49e5(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,129,69,0,0 ; movdqa 0x4581(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,209 ; movdqa %xmm9,%xmm10
DB 102,68,15,249,215 ; psubw %xmm7,%xmm10
DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
@@ -45830,7 +36332,7 @@ _sk_darken_sse41_lowp LABEL PROC
DB 102,68,15,213,207 ; pmullw %xmm7,%xmm9
DB 102,15,213,203 ; pmullw %xmm3,%xmm1
DB 102,65,15,56,62,201 ; pmaxuw %xmm9,%xmm1
- DB 102,68,15,111,13,44,73,0,0 ; movdqa 0x492c(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,200,68,0,0 ; movdqa 0x44c8(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
@@ -45872,7 +36374,7 @@ _sk_lighten_sse41_lowp LABEL PROC
DB 102,68,15,213,207 ; pmullw %xmm7,%xmm9
DB 102,15,213,203 ; pmullw %xmm3,%xmm1
DB 102,65,15,56,58,201 ; pminuw %xmm9,%xmm1
- DB 102,68,15,111,13,111,72,0,0 ; movdqa 0x486f(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,11,68,0,0 ; movdqa 0x440b(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
@@ -45914,10 +36416,10 @@ _sk_difference_sse41_lowp LABEL PROC
DB 102,68,15,213,207 ; pmullw %xmm7,%xmm9
DB 102,15,213,203 ; pmullw %xmm3,%xmm1
DB 102,65,15,56,58,201 ; pminuw %xmm9,%xmm1
- DB 102,68,15,111,13,178,71,0,0 ; movdqa 0x47b2(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,78,67,0,0 ; movdqa 0x434e(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,68,15,111,21,15,80,0,0 ; movdqa 0x500f(%rip),%xmm10 # 34ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x169c>
+ DB 102,68,15,111,21,155,74,0,0 ; movdqa 0x4a9b(%rip),%xmm10 # 2abe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1128>
DB 102,65,15,219,202 ; pand %xmm10,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
DB 102,68,15,111,221 ; movdqa %xmm5,%xmm11
@@ -45957,10 +36459,10 @@ _sk_exclusion_sse41_lowp LABEL PROC
DB 102,15,111,196 ; movdqa %xmm4,%xmm0
DB 102,15,253,193 ; paddw %xmm1,%xmm0
DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,68,15,111,13,238,70,0,0 ; movdqa 0x46ee(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,138,66,0,0 ; movdqa 0x428a(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,68,15,111,21,75,79,0,0 ; movdqa 0x4f4b(%rip),%xmm10 # 34ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x169c>
+ DB 102,68,15,111,21,215,73,0,0 ; movdqa 0x49d7(%rip),%xmm10 # 2abe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1128>
DB 102,65,15,219,202 ; pand %xmm10,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
DB 102,15,111,205 ; movdqa %xmm5,%xmm1
@@ -45995,14 +36497,14 @@ _sk_hardlight_sse41_lowp LABEL PROC
DB 102,15,111,245 ; movdqa %xmm5,%xmm6
DB 102,15,111,236 ; movdqa %xmm4,%xmm5
DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,68,15,111,29,70,70,0,0 ; movdqa 0x4646(%rip),%xmm11 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,29,226,65,0,0 ; movdqa 0x41e2(%rip),%xmm11 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,249,220 ; psubw %xmm12,%xmm11
DB 102,65,15,111,227 ; movdqa %xmm11,%xmm4
DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
DB 102,68,15,111,251 ; movdqa %xmm3,%xmm15
DB 102,69,15,249,248 ; psubw %xmm8,%xmm15
DB 102,69,15,253,192 ; paddw %xmm8,%xmm8
- DB 102,68,15,111,13,159,78,0,0 ; movdqa 0x4e9f(%rip),%xmm9 # 34ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x16ac>
+ DB 102,68,15,111,13,43,73,0,0 ; movdqa 0x492b(%rip),%xmm9 # 2abf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
DB 102,68,15,111,243 ; movdqa %xmm3,%xmm14
DB 102,69,15,239,241 ; pxor %xmm9,%xmm14
DB 102,65,15,111,196 ; movdqa %xmm12,%xmm0
@@ -46049,7 +36551,7 @@ _sk_hardlight_sse41_lowp LABEL PROC
DB 102,68,15,111,232 ; movdqa %xmm0,%xmm13
DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
DB 102,65,15,56,16,210 ; pblendvb %xmm0,%xmm10,%xmm2
- DB 102,68,15,111,13,56,69,0,0 ; movdqa 0x4538(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,212,64,0,0 ; movdqa 0x40d4(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
DB 102,15,249,195 ; psubw %xmm3,%xmm0
DB 102,15,111,248 ; movdqa %xmm0,%xmm7
@@ -46088,7 +36590,7 @@ _sk_overlay_sse41_lowp LABEL PROC
DB 72,131,236,24 ; sub $0x18,%rsp
DB 102,68,15,111,231 ; movdqa %xmm7,%xmm12
DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,68,15,111,29,147,68,0,0 ; movdqa 0x4493(%rip),%xmm11 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,29,47,64,0,0 ; movdqa 0x402f(%rip),%xmm11 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,249,220 ; psubw %xmm12,%xmm11
DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
@@ -46100,7 +36602,7 @@ _sk_overlay_sse41_lowp LABEL PROC
DB 102,68,15,249,252 ; psubw %xmm4,%xmm15
DB 102,15,111,196 ; movdqa %xmm4,%xmm0
DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,68,15,111,13,213,76,0,0 ; movdqa 0x4cd5(%rip),%xmm9 # 34ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x16ac>
+ DB 102,68,15,111,13,97,71,0,0 ; movdqa 0x4761(%rip),%xmm9 # 2abf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
DB 102,69,15,111,212 ; movdqa %xmm12,%xmm10
DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
DB 102,69,15,213,254 ; pmullw %xmm14,%xmm15
@@ -46146,7 +36648,7 @@ _sk_overlay_sse41_lowp LABEL PROC
DB 102,15,253,210 ; paddw %xmm2,%xmm2
DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
DB 102,65,15,56,16,210 ; pblendvb %xmm0,%xmm10,%xmm2
- DB 102,68,15,111,13,119,67,0,0 ; movdqa 0x4377(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,19,63,0,0 ; movdqa 0x3f13(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
DB 102,15,249,195 ; psubw %xmm3,%xmm0
DB 102,15,111,248 ; movdqa %xmm0,%xmm7
@@ -46188,49 +36690,49 @@ _sk_load_8888_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 2ffae <_sk_load_8888_sse41_lowp+0x44>
+ DB 119,41 ; ja 26632 <_sk_load_8888_sse41_lowp+0x44>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,240,0,0,0 ; lea 0xf0(%rip),%r9 # 30084 <_sk_load_8888_sse41_lowp+0x11a>
+ DB 76,141,13,240,0,0,0 ; lea 0xf0(%rip),%r9 # 26708 <_sk_load_8888_sse41_lowp+0x11a>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 255,224 ; jmpq *%rax
DB 102,65,15,110,20,144 ; movd (%r8,%rdx,4),%xmm2
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 30007 <_sk_load_8888_sse41_lowp+0x9d>
+ DB 235,89 ; jmp 2668b <_sk_load_8888_sse41_lowp+0x9d>
DB 243,65,15,111,20,144 ; movdqu (%r8,%rdx,4),%xmm2
DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 30007 <_sk_load_8888_sse41_lowp+0x9d>
+ DB 235,74 ; jmp 2668b <_sk_load_8888_sse41_lowp+0x9d>
DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 243,65,15,126,20,144 ; movq (%r8,%rdx,4),%xmm2
DB 102,65,15,58,14,208,240 ; pblendw $0xf0,%xmm8,%xmm2
DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 235,37 ; jmp 30007 <_sk_load_8888_sse41_lowp+0x9d>
+ DB 235,37 ; jmp 2668b <_sk_load_8888_sse41_lowp+0x9d>
DB 102,65,15,110,68,144,24 ; movd 0x18(%r8,%rdx,4),%xmm0
DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
DB 243,65,15,111,20,144 ; movdqu (%r8,%rdx,4),%xmm2
- DB 102,15,111,5,17,74,0,0 ; movdqa 0x4a11(%rip),%xmm0 # 34a20 <_sk_srcover_rgba_8888_sse2_lowp+0x15ec>
+ DB 102,15,111,5,109,69,0,0 ; movdqa 0x456d(%rip),%xmm0 # 2ac00 <_sk_srcover_rgba_8888_sse2_lowp+0x1148>
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
DB 102,15,56,0,200 ; pshufb %xmm0,%xmm1
DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
DB 102,15,56,0,216 ; pshufb %xmm0,%xmm3
DB 102,15,108,203 ; punpcklqdq %xmm3,%xmm1
- DB 102,68,15,111,13,49,66,0,0 ; movdqa 0x4231(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,205,61,0,0 ; movdqa 0x3dcd(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
DB 102,65,15,219,193 ; pand %xmm9,%xmm0
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,68,15,111,21,26,74,0,0 ; movdqa 0x4a1a(%rip),%xmm10 # 34a60 <_sk_srcover_rgba_8888_sse2_lowp+0x162c>
+ DB 102,68,15,111,21,70,69,0,0 ; movdqa 0x4546(%rip),%xmm10 # 2ac10 <_sk_srcover_rgba_8888_sse2_lowp+0x1158>
DB 102,15,111,218 ; movdqa %xmm2,%xmm3
DB 102,65,15,56,0,218 ; pshufb %xmm10,%xmm3
DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
DB 102,65,15,108,219 ; punpcklqdq %xmm11,%xmm3
- DB 102,68,15,111,21,135,74,0,0 ; movdqa 0x4a87(%rip),%xmm10 # 34af0 <_sk_srcover_rgba_8888_sse2_lowp+0x16bc>
+ DB 102,68,15,111,21,51,69,0,0 ; movdqa 0x4533(%rip),%xmm10 # 2ac20 <_sk_srcover_rgba_8888_sse2_lowp+0x1168>
DB 102,65,15,56,0,210 ; pshufb %xmm10,%xmm2
DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
DB 102,65,15,108,208 ; punpcklqdq %xmm8,%xmm2
@@ -46245,7 +36747,7 @@ _sk_load_8888_sse41_lowp LABEL PROC
DB 57,255 ; cmp %edi,%edi
DB 255 ; (bad)
DB 255 ; (bad)
- DB 125,255 ; jge 30091 <_sk_load_8888_sse41_lowp+0x127>
+ DB 125,255 ; jge 26715 <_sk_load_8888_sse41_lowp+0x127>
DB 255 ; (bad)
DB 255,116,255,255 ; pushq -0x1(%rdi,%rdi,8)
DB 255,107,255 ; ljmp *-0x1(%rbx)
@@ -46265,49 +36767,49 @@ _sk_load_8888_dst_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 300e4 <_sk_load_8888_dst_sse41_lowp+0x44>
+ DB 119,41 ; ja 26768 <_sk_load_8888_dst_sse41_lowp+0x44>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,242,0,0,0 ; lea 0xf2(%rip),%r9 # 301bc <_sk_load_8888_dst_sse41_lowp+0x11c>
+ DB 76,141,13,242,0,0,0 ; lea 0xf2(%rip),%r9 # 26840 <_sk_load_8888_dst_sse41_lowp+0x11c>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 255,224 ; jmpq *%rax
DB 102,65,15,110,52,144 ; movd (%r8,%rdx,4),%xmm6
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 3013d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ DB 235,89 ; jmp 267c1 <_sk_load_8888_dst_sse41_lowp+0x9d>
DB 243,65,15,111,52,144 ; movdqu (%r8,%rdx,4),%xmm6
DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 3013d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ DB 235,74 ; jmp 267c1 <_sk_load_8888_dst_sse41_lowp+0x9d>
DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 243,65,15,126,52,144 ; movq (%r8,%rdx,4),%xmm6
DB 102,65,15,58,14,240,240 ; pblendw $0xf0,%xmm8,%xmm6
DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,37 ; jmp 3013d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ DB 235,37 ; jmp 267c1 <_sk_load_8888_dst_sse41_lowp+0x9d>
DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
DB 243,65,15,111,52,144 ; movdqu (%r8,%rdx,4),%xmm6
- DB 102,15,111,37,219,72,0,0 ; movdqa 0x48db(%rip),%xmm4 # 34a20 <_sk_srcover_rgba_8888_sse2_lowp+0x15ec>
+ DB 102,15,111,37,55,68,0,0 ; movdqa 0x4437(%rip),%xmm4 # 2ac00 <_sk_srcover_rgba_8888_sse2_lowp+0x1148>
DB 102,15,111,238 ; movdqa %xmm6,%xmm5
DB 102,15,56,0,236 ; pshufb %xmm4,%xmm5
DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
DB 102,15,56,0,252 ; pshufb %xmm4,%xmm7
DB 102,15,108,239 ; punpcklqdq %xmm7,%xmm5
- DB 102,68,15,111,13,251,64,0,0 ; movdqa 0x40fb(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,151,60,0,0 ; movdqa 0x3c97(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,229 ; movdqa %xmm5,%xmm4
DB 102,65,15,219,225 ; pand %xmm9,%xmm4
DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,68,15,111,21,228,72,0,0 ; movdqa 0x48e4(%rip),%xmm10 # 34a60 <_sk_srcover_rgba_8888_sse2_lowp+0x162c>
+ DB 102,68,15,111,21,16,68,0,0 ; movdqa 0x4410(%rip),%xmm10 # 2ac10 <_sk_srcover_rgba_8888_sse2_lowp+0x1158>
DB 102,15,111,254 ; movdqa %xmm6,%xmm7
DB 102,65,15,56,0,250 ; pshufb %xmm10,%xmm7
DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
DB 102,65,15,108,251 ; punpcklqdq %xmm11,%xmm7
- DB 102,68,15,111,21,81,73,0,0 ; movdqa 0x4951(%rip),%xmm10 # 34af0 <_sk_srcover_rgba_8888_sse2_lowp+0x16bc>
+ DB 102,68,15,111,21,253,67,0,0 ; movdqa 0x43fd(%rip),%xmm10 # 2ac20 <_sk_srcover_rgba_8888_sse2_lowp+0x1168>
DB 102,65,15,56,0,242 ; pshufb %xmm10,%xmm6
DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
DB 102,65,15,108,240 ; punpcklqdq %xmm8,%xmm6
@@ -46323,7 +36825,7 @@ _sk_load_8888_dst_sse41_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 123,255 ; jnp 301c9 <_sk_load_8888_dst_sse41_lowp+0x129>
+ DB 123,255 ; jnp 2684d <_sk_load_8888_dst_sse41_lowp+0x129>
DB 255 ; (bad)
DB 255,114,255 ; pushq -0x1(%rdx)
DB 255 ; (bad)
@@ -46358,20 +36860,20 @@ _sk_store_8888_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,27 ; ja 3025e <_sk_store_8888_sse41_lowp+0x86>
+ DB 119,27 ; ja 268e2 <_sk_store_8888_sse41_lowp+0x86>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,87,0,0,0 ; lea 0x57(%rip),%r9 # 302a4 <_sk_store_8888_sse41_lowp+0xcc>
+ DB 76,141,13,87,0,0,0 ; lea 0x57(%rip),%r9 # 26928 <_sk_store_8888_sse41_lowp+0xcc>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 102,69,15,126,4,144 ; movd %xmm8,(%r8,%rdx,4)
- DB 235,63 ; jmp 3029d <_sk_store_8888_sse41_lowp+0xc5>
+ DB 235,63 ; jmp 26921 <_sk_store_8888_sse41_lowp+0xc5>
DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
DB 243,69,15,127,76,144,16 ; movdqu %xmm9,0x10(%r8,%rdx,4)
- DB 235,48 ; jmp 3029d <_sk_store_8888_sse41_lowp+0xc5>
+ DB 235,48 ; jmp 26921 <_sk_store_8888_sse41_lowp+0xc5>
DB 102,69,15,58,22,68,144,8,2 ; pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
DB 102,69,15,214,4,144 ; movq %xmm8,(%r8,%rdx,4)
- DB 235,31 ; jmp 3029d <_sk_store_8888_sse41_lowp+0xc5>
+ DB 235,31 ; jmp 26921 <_sk_store_8888_sse41_lowp+0xc5>
DB 102,69,15,58,22,76,144,24,2 ; pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
DB 102,69,15,58,22,76,144,20,1 ; pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
DB 102,69,15,126,76,144,16 ; movd %xmm9,0x10(%r8,%rdx,4)
@@ -46413,49 +36915,49 @@ _sk_load_bgra_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 30304 <_sk_load_bgra_sse41_lowp+0x44>
+ DB 119,41 ; ja 26988 <_sk_load_bgra_sse41_lowp+0x44>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,242,0,0,0 ; lea 0xf2(%rip),%r9 # 303dc <_sk_load_bgra_sse41_lowp+0x11c>
+ DB 76,141,13,242,0,0,0 ; lea 0xf2(%rip),%r9 # 26a60 <_sk_load_bgra_sse41_lowp+0x11c>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 102,15,239,201 ; pxor %xmm1,%xmm1
DB 255,224 ; jmpq *%rax
DB 102,65,15,110,4,144 ; movd (%r8,%rdx,4),%xmm0
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 3035d <_sk_load_bgra_sse41_lowp+0x9d>
+ DB 235,89 ; jmp 269e1 <_sk_load_bgra_sse41_lowp+0x9d>
DB 243,65,15,111,4,144 ; movdqu (%r8,%rdx,4),%xmm0
DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 3035d <_sk_load_bgra_sse41_lowp+0x9d>
+ DB 235,74 ; jmp 269e1 <_sk_load_bgra_sse41_lowp+0x9d>
DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
DB 102,15,239,201 ; pxor %xmm1,%xmm1
DB 243,65,15,126,4,144 ; movq (%r8,%rdx,4),%xmm0
DB 102,65,15,58,14,192,240 ; pblendw $0xf0,%xmm8,%xmm0
DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 235,37 ; jmp 3035d <_sk_load_bgra_sse41_lowp+0x9d>
+ DB 235,37 ; jmp 269e1 <_sk_load_bgra_sse41_lowp+0x9d>
DB 102,65,15,110,68,144,24 ; movd 0x18(%r8,%rdx,4),%xmm0
DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
DB 243,65,15,111,4,144 ; movdqu (%r8,%rdx,4),%xmm0
- DB 102,15,111,21,187,70,0,0 ; movdqa 0x46bb(%rip),%xmm2 # 34a20 <_sk_srcover_rgba_8888_sse2_lowp+0x15ec>
+ DB 102,15,111,21,23,66,0,0 ; movdqa 0x4217(%rip),%xmm2 # 2ac00 <_sk_srcover_rgba_8888_sse2_lowp+0x1148>
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
DB 102,15,56,0,202 ; pshufb %xmm2,%xmm1
DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
DB 102,15,56,0,218 ; pshufb %xmm2,%xmm3
DB 102,15,108,203 ; punpcklqdq %xmm3,%xmm1
- DB 102,68,15,111,13,219,62,0,0 ; movdqa 0x3edb(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,119,58,0,0 ; movdqa 0x3a77(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,209 ; movdqa %xmm1,%xmm2
DB 102,65,15,219,209 ; pand %xmm9,%xmm2
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,68,15,111,21,196,70,0,0 ; movdqa 0x46c4(%rip),%xmm10 # 34a60 <_sk_srcover_rgba_8888_sse2_lowp+0x162c>
+ DB 102,68,15,111,21,240,65,0,0 ; movdqa 0x41f0(%rip),%xmm10 # 2ac10 <_sk_srcover_rgba_8888_sse2_lowp+0x1158>
DB 102,15,111,216 ; movdqa %xmm0,%xmm3
DB 102,65,15,56,0,218 ; pshufb %xmm10,%xmm3
DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
DB 102,65,15,108,219 ; punpcklqdq %xmm11,%xmm3
- DB 102,68,15,111,21,49,71,0,0 ; movdqa 0x4731(%rip),%xmm10 # 34af0 <_sk_srcover_rgba_8888_sse2_lowp+0x16bc>
+ DB 102,68,15,111,21,221,65,0,0 ; movdqa 0x41dd(%rip),%xmm10 # 2ac20 <_sk_srcover_rgba_8888_sse2_lowp+0x1168>
DB 102,65,15,56,0,194 ; pshufb %xmm10,%xmm0
DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
DB 102,65,15,108,192 ; punpcklqdq %xmm8,%xmm0
@@ -46471,7 +36973,7 @@ _sk_load_bgra_sse41_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 123,255 ; jnp 303e9 <_sk_load_bgra_sse41_lowp+0x129>
+ DB 123,255 ; jnp 26a6d <_sk_load_bgra_sse41_lowp+0x129>
DB 255 ; (bad)
DB 255,114,255 ; pushq -0x1(%rdx)
DB 255 ; (bad)
@@ -46491,49 +36993,49 @@ _sk_load_bgra_dst_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 3043c <_sk_load_bgra_dst_sse41_lowp+0x44>
+ DB 119,41 ; ja 26ac0 <_sk_load_bgra_dst_sse41_lowp+0x44>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,242,0,0,0 ; lea 0xf2(%rip),%r9 # 30514 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ DB 76,141,13,242,0,0,0 ; lea 0xf2(%rip),%r9 # 26b98 <_sk_load_bgra_dst_sse41_lowp+0x11c>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 102,15,239,237 ; pxor %xmm5,%xmm5
DB 255,224 ; jmpq *%rax
DB 102,65,15,110,36,144 ; movd (%r8,%rdx,4),%xmm4
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 30495 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ DB 235,89 ; jmp 26b19 <_sk_load_bgra_dst_sse41_lowp+0x9d>
DB 243,65,15,111,36,144 ; movdqu (%r8,%rdx,4),%xmm4
DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 30495 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ DB 235,74 ; jmp 26b19 <_sk_load_bgra_dst_sse41_lowp+0x9d>
DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 102,15,239,237 ; pxor %xmm5,%xmm5
DB 243,65,15,126,36,144 ; movq (%r8,%rdx,4),%xmm4
DB 102,65,15,58,14,224,240 ; pblendw $0xf0,%xmm8,%xmm4
DB 102,68,15,111,197 ; movdqa %xmm5,%xmm8
- DB 235,37 ; jmp 30495 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ DB 235,37 ; jmp 26b19 <_sk_load_bgra_dst_sse41_lowp+0x9d>
DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
DB 243,65,15,111,36,144 ; movdqu (%r8,%rdx,4),%xmm4
- DB 102,15,111,53,131,69,0,0 ; movdqa 0x4583(%rip),%xmm6 # 34a20 <_sk_srcover_rgba_8888_sse2_lowp+0x15ec>
+ DB 102,15,111,53,223,64,0,0 ; movdqa 0x40df(%rip),%xmm6 # 2ac00 <_sk_srcover_rgba_8888_sse2_lowp+0x1148>
DB 102,15,111,236 ; movdqa %xmm4,%xmm5
DB 102,15,56,0,238 ; pshufb %xmm6,%xmm5
DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
DB 102,15,56,0,254 ; pshufb %xmm6,%xmm7
DB 102,15,108,239 ; punpcklqdq %xmm7,%xmm5
- DB 102,68,15,111,13,163,61,0,0 ; movdqa 0x3da3(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,63,57,0,0 ; movdqa 0x393f(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,245 ; movdqa %xmm5,%xmm6
DB 102,65,15,219,241 ; pand %xmm9,%xmm6
DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,68,15,111,21,140,69,0,0 ; movdqa 0x458c(%rip),%xmm10 # 34a60 <_sk_srcover_rgba_8888_sse2_lowp+0x162c>
+ DB 102,68,15,111,21,184,64,0,0 ; movdqa 0x40b8(%rip),%xmm10 # 2ac10 <_sk_srcover_rgba_8888_sse2_lowp+0x1158>
DB 102,15,111,252 ; movdqa %xmm4,%xmm7
DB 102,65,15,56,0,250 ; pshufb %xmm10,%xmm7
DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
DB 102,65,15,108,251 ; punpcklqdq %xmm11,%xmm7
- DB 102,68,15,111,21,249,69,0,0 ; movdqa 0x45f9(%rip),%xmm10 # 34af0 <_sk_srcover_rgba_8888_sse2_lowp+0x16bc>
+ DB 102,68,15,111,21,165,64,0,0 ; movdqa 0x40a5(%rip),%xmm10 # 2ac20 <_sk_srcover_rgba_8888_sse2_lowp+0x1168>
DB 102,65,15,56,0,226 ; pshufb %xmm10,%xmm4
DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
DB 102,65,15,108,224 ; punpcklqdq %xmm8,%xmm4
@@ -46549,7 +37051,7 @@ _sk_load_bgra_dst_sse41_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 123,255 ; jnp 30521 <_sk_load_bgra_dst_sse41_lowp+0x129>
+ DB 123,255 ; jnp 26ba5 <_sk_load_bgra_dst_sse41_lowp+0x129>
DB 255 ; (bad)
DB 255,114,255 ; pushq -0x1(%rdx)
DB 255 ; (bad)
@@ -46584,20 +37086,20 @@ _sk_store_bgra_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,27 ; ja 305b6 <_sk_store_bgra_sse41_lowp+0x86>
+ DB 119,27 ; ja 26c3a <_sk_store_bgra_sse41_lowp+0x86>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,87,0,0,0 ; lea 0x57(%rip),%r9 # 305fc <_sk_store_bgra_sse41_lowp+0xcc>
+ DB 76,141,13,87,0,0,0 ; lea 0x57(%rip),%r9 # 26c80 <_sk_store_bgra_sse41_lowp+0xcc>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 102,69,15,126,4,144 ; movd %xmm8,(%r8,%rdx,4)
- DB 235,63 ; jmp 305f5 <_sk_store_bgra_sse41_lowp+0xc5>
+ DB 235,63 ; jmp 26c79 <_sk_store_bgra_sse41_lowp+0xc5>
DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
DB 243,69,15,127,76,144,16 ; movdqu %xmm9,0x10(%r8,%rdx,4)
- DB 235,48 ; jmp 305f5 <_sk_store_bgra_sse41_lowp+0xc5>
+ DB 235,48 ; jmp 26c79 <_sk_store_bgra_sse41_lowp+0xc5>
DB 102,69,15,58,22,68,144,8,2 ; pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
DB 102,69,15,214,4,144 ; movq %xmm8,(%r8,%rdx,4)
- DB 235,31 ; jmp 305f5 <_sk_store_bgra_sse41_lowp+0xc5>
+ DB 235,31 ; jmp 26c79 <_sk_store_bgra_sse41_lowp+0xc5>
DB 102,69,15,58,22,76,144,24,2 ; pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
DB 102,69,15,58,22,76,144,20,1 ; pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
DB 102,69,15,126,76,144,16 ; movd %xmm9,0x10(%r8,%rdx,4)
@@ -46639,23 +37141,23 @@ _sk_load_565_dst_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 30654 <_sk_load_565_dst_sse41_lowp+0x3c>
+ DB 119,34 ; ja 26cd8 <_sk_load_565_dst_sse41_lowp+0x3c>
DB 102,15,239,237 ; pxor %xmm5,%xmm5
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,196,0,0,0 ; lea 0xc4(%rip),%r9 # 30704 <_sk_load_565_dst_sse41_lowp+0xec>
+ DB 76,141,13,196,0,0,0 ; lea 0xc4(%rip),%r9 # 26d88 <_sk_load_565_dst_sse41_lowp+0xec>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,74 ; jmp 3069e <_sk_load_565_dst_sse41_lowp+0x86>
+ DB 235,74 ; jmp 26d22 <_sk_load_565_dst_sse41_lowp+0x86>
DB 243,65,15,111,36,80 ; movdqu (%r8,%rdx,2),%xmm4
- DB 235,66 ; jmp 3069e <_sk_load_565_dst_sse41_lowp+0x86>
+ DB 235,66 ; jmp 26d22 <_sk_load_565_dst_sse41_lowp+0x86>
DB 102,15,239,237 ; pxor %xmm5,%xmm5
DB 102,65,15,196,108,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
DB 102,65,15,110,36,80 ; movd (%r8,%rdx,2),%xmm4
DB 102,15,58,14,229,252 ; pblendw $0xfc,%xmm5,%xmm4
- DB 235,40 ; jmp 3069e <_sk_load_565_dst_sse41_lowp+0x86>
+ DB 235,40 ; jmp 26d22 <_sk_load_565_dst_sse41_lowp+0x86>
DB 102,15,239,237 ; pxor %xmm5,%xmm5
DB 102,65,15,196,108,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
DB 102,65,15,196,108,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -46664,11 +37166,11 @@ _sk_load_565_dst_sse41_lowp LABEL PROC
DB 102,15,58,14,229,240 ; pblendw $0xf0,%xmm5,%xmm4
DB 102,15,111,252 ; movdqa %xmm4,%xmm7
DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,219,61,81,68,0,0 ; pand 0x4451(%rip),%xmm7 # 34b00 <_sk_srcover_rgba_8888_sse2_lowp+0x16cc>
+ DB 102,15,219,61,253,62,0,0 ; pand 0x3efd(%rip),%xmm7 # 2ac30 <_sk_srcover_rgba_8888_sse2_lowp+0x1178>
DB 102,15,111,236 ; movdqa %xmm4,%xmm5
DB 102,15,113,213,5 ; psrlw $0x5,%xmm5
- DB 102,15,219,45,80,68,0,0 ; pand 0x4450(%rip),%xmm5 # 34b10 <_sk_srcover_rgba_8888_sse2_lowp+0x16dc>
- DB 102,15,111,53,88,68,0,0 ; movdqa 0x4458(%rip),%xmm6 # 34b20 <_sk_srcover_rgba_8888_sse2_lowp+0x16ec>
+ DB 102,15,219,45,252,62,0,0 ; pand 0x3efc(%rip),%xmm5 # 2ac40 <_sk_srcover_rgba_8888_sse2_lowp+0x1188>
+ DB 102,15,111,53,4,63,0,0 ; movdqa 0x3f04(%rip),%xmm6 # 2ac50 <_sk_srcover_rgba_8888_sse2_lowp+0x1198>
DB 102,15,219,244 ; pand %xmm4,%xmm6
DB 102,15,113,212,13 ; psrlw $0xd,%xmm4
DB 102,15,235,231 ; por %xmm7,%xmm4
@@ -46681,7 +37183,7 @@ _sk_load_565_dst_sse41_lowp LABEL PROC
DB 102,15,113,214,2 ; psrlw $0x2,%xmm6
DB 102,15,235,247 ; por %xmm7,%xmm6
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,94,59,0,0 ; movaps 0x3b5e(%rip),%xmm7 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 15,40,61,250,54,0,0 ; movaps 0x36fa(%rip),%xmm7 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 255,224 ; jmpq *%rax
DB 69,255 ; rex.RB (bad)
DB 255 ; (bad)
@@ -46692,7 +37194,7 @@ _sk_load_565_dst_sse41_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 126,255 ; jle 30719 <_sk_load_565_dst_sse41_lowp+0x101>
+ DB 126,255 ; jle 26d9d <_sk_load_565_dst_sse41_lowp+0x101>
DB 255 ; (bad)
DB 255,114,255 ; pushq -0x1(%rdx)
DB 255 ; (bad)
@@ -46707,10 +37209,10 @@ _sk_store_565_sse41_lowp LABEL PROC
DB 76,3,0 ; add (%rax),%r8
DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
DB 102,65,15,113,240,8 ; psllw $0x8,%xmm8
- DB 102,68,15,219,5,236,67,0,0 ; pand 0x43ec(%rip),%xmm8 # 34b30 <_sk_srcover_rgba_8888_sse2_lowp+0x16fc>
+ DB 102,68,15,219,5,152,62,0,0 ; pand 0x3e98(%rip),%xmm8 # 2ac60 <_sk_srcover_rgba_8888_sse2_lowp+0x11a8>
DB 102,68,15,111,201 ; movdqa %xmm1,%xmm9
DB 102,65,15,113,241,3 ; psllw $0x3,%xmm9
- DB 102,68,15,219,13,232,67,0,0 ; pand 0x43e8(%rip),%xmm9 # 34b40 <_sk_srcover_rgba_8888_sse2_lowp+0x170c>
+ DB 102,68,15,219,13,148,62,0,0 ; pand 0x3e94(%rip),%xmm9 # 2ac70 <_sk_srcover_rgba_8888_sse2_lowp+0x11b8>
DB 102,69,15,235,200 ; por %xmm8,%xmm9
DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
DB 102,65,15,113,208,3 ; psrlw $0x3,%xmm8
@@ -46719,19 +37221,19 @@ _sk_store_565_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,29 ; ja 30794 <_sk_store_565_sse41_lowp+0x74>
+ DB 119,29 ; ja 26e18 <_sk_store_565_sse41_lowp+0x74>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,83,0,0,0 ; lea 0x53(%rip),%r9 # 307d4 <_sk_store_565_sse41_lowp+0xb4>
+ DB 76,141,13,83,0,0,0 ; lea 0x53(%rip),%r9 # 26e58 <_sk_store_565_sse41_lowp+0xb4>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 102,69,15,58,21,4,80,0 ; pextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 235,58 ; jmp 307ce <_sk_store_565_sse41_lowp+0xae>
+ DB 235,58 ; jmp 26e52 <_sk_store_565_sse41_lowp+0xae>
DB 243,69,15,127,4,80 ; movdqu %xmm8,(%r8,%rdx,2)
- DB 235,50 ; jmp 307ce <_sk_store_565_sse41_lowp+0xae>
+ DB 235,50 ; jmp 26e52 <_sk_store_565_sse41_lowp+0xae>
DB 102,69,15,58,21,68,80,4,2 ; pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
DB 102,69,15,126,4,80 ; movd %xmm8,(%r8,%rdx,2)
- DB 235,33 ; jmp 307ce <_sk_store_565_sse41_lowp+0xae>
+ DB 235,33 ; jmp 26e52 <_sk_store_565_sse41_lowp+0xae>
DB 102,69,15,58,21,68,80,12,6 ; pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
DB 102,69,15,58,21,68,80,10,5 ; pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
DB 102,69,15,58,21,68,80,8,4 ; pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -46751,7 +37253,7 @@ _sk_store_565_sse41_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 235,255 ; jmp 307e5 <_sk_store_565_sse41_lowp+0xc5>
+ DB 235,255 ; jmp 26e69 <_sk_store_565_sse41_lowp+0xc5>
DB 255 ; (bad)
DB 255,226 ; jmpq *%rdx
DB 255 ; (bad)
@@ -46771,18 +37273,18 @@ _sk_load_a8_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 30829 <_sk_load_a8_sse41_lowp+0x39>
+ DB 119,34 ; ja 26ead <_sk_load_a8_sse41_lowp+0x39>
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,143,0,0,0 ; lea 0x8f(%rip),%r9 # 308a4 <_sk_load_a8_sse41_lowp+0xb4>
+ DB 76,141,13,143,0,0,0 ; lea 0x8f(%rip),%r9 # 26f28 <_sk_load_a8_sse41_lowp+0xb4>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,15,110,216 ; movd %eax,%xmm3
- DB 235,100 ; jmp 3088d <_sk_load_a8_sse41_lowp+0x9d>
+ DB 235,100 ; jmp 26f11 <_sk_load_a8_sse41_lowp+0x9d>
DB 102,65,15,56,48,28,16 ; pmovzxbw (%r8,%rdx,1),%xmm3
- DB 235,91 ; jmp 3088d <_sk_load_a8_sse41_lowp+0x9d>
+ DB 235,91 ; jmp 26f11 <_sk_load_a8_sse41_lowp+0x9d>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,196,192,2 ; pinsrw $0x2,%eax,%xmm0
@@ -46790,7 +37292,7 @@ _sk_load_a8_sse41_lowp LABEL PROC
DB 102,15,110,200 ; movd %eax,%xmm1
DB 102,15,56,48,217 ; pmovzxbw %xmm1,%xmm3
DB 102,15,58,14,216,252 ; pblendw $0xfc,%xmm0,%xmm3
- DB 235,54 ; jmp 3088d <_sk_load_a8_sse41_lowp+0x9d>
+ DB 235,54 ; jmp 26f11 <_sk_load_a8_sse41_lowp+0x9d>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,196,192,6 ; pinsrw $0x6,%eax,%xmm0
@@ -46801,13 +37303,13 @@ _sk_load_a8_sse41_lowp LABEL PROC
DB 102,65,15,110,12,16 ; movd (%r8,%rdx,1),%xmm1
DB 102,15,56,48,217 ; pmovzxbw %xmm1,%xmm3
DB 102,15,58,14,216,240 ; pblendw $0xf0,%xmm0,%xmm3
- DB 102,15,219,29,203,57,0,0 ; pand 0x39cb(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,219,29,103,53,0,0 ; pand 0x3567(%rip),%xmm3 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,239,201 ; pxor %xmm1,%xmm1
DB 15,87,210 ; xorps %xmm2,%xmm2
DB 255,224 ; jmpq *%rax
- DB 122,255 ; jp 308a5 <_sk_load_a8_sse41_lowp+0xb5>
+ DB 122,255 ; jp 26f29 <_sk_load_a8_sse41_lowp+0xb5>
DB 255 ; (bad)
DB 255,157,255,255,255,142 ; lcall *-0x71000001(%rbp)
DB 255 ; (bad)
@@ -46836,18 +37338,18 @@ _sk_load_a8_dst_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 308f9 <_sk_load_a8_dst_sse41_lowp+0x39>
+ DB 119,34 ; ja 26f7d <_sk_load_a8_dst_sse41_lowp+0x39>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,143,0,0,0 ; lea 0x8f(%rip),%r9 # 30974 <_sk_load_a8_dst_sse41_lowp+0xb4>
+ DB 76,141,13,143,0,0,0 ; lea 0x8f(%rip),%r9 # 26ff8 <_sk_load_a8_dst_sse41_lowp+0xb4>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,15,110,248 ; movd %eax,%xmm7
- DB 235,100 ; jmp 3095d <_sk_load_a8_dst_sse41_lowp+0x9d>
+ DB 235,100 ; jmp 26fe1 <_sk_load_a8_dst_sse41_lowp+0x9d>
DB 102,65,15,56,48,60,16 ; pmovzxbw (%r8,%rdx,1),%xmm7
- DB 235,91 ; jmp 3095d <_sk_load_a8_dst_sse41_lowp+0x9d>
+ DB 235,91 ; jmp 26fe1 <_sk_load_a8_dst_sse41_lowp+0x9d>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,224,2 ; pinsrw $0x2,%eax,%xmm4
@@ -46855,7 +37357,7 @@ _sk_load_a8_dst_sse41_lowp LABEL PROC
DB 102,15,110,232 ; movd %eax,%xmm5
DB 102,15,56,48,253 ; pmovzxbw %xmm5,%xmm7
DB 102,15,58,14,252,252 ; pblendw $0xfc,%xmm4,%xmm7
- DB 235,54 ; jmp 3095d <_sk_load_a8_dst_sse41_lowp+0x9d>
+ DB 235,54 ; jmp 26fe1 <_sk_load_a8_dst_sse41_lowp+0x9d>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,224,6 ; pinsrw $0x6,%eax,%xmm4
@@ -46866,13 +37368,13 @@ _sk_load_a8_dst_sse41_lowp LABEL PROC
DB 102,65,15,110,44,16 ; movd (%r8,%rdx,1),%xmm5
DB 102,15,56,48,253 ; pmovzxbw %xmm5,%xmm7
DB 102,15,58,14,252,240 ; pblendw $0xf0,%xmm4,%xmm7
- DB 102,15,219,61,251,56,0,0 ; pand 0x38fb(%rip),%xmm7 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,219,61,151,52,0,0 ; pand 0x3497(%rip),%xmm7 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,239,237 ; pxor %xmm5,%xmm5
DB 15,87,246 ; xorps %xmm6,%xmm6
DB 255,224 ; jmpq *%rax
- DB 122,255 ; jp 30975 <_sk_load_a8_dst_sse41_lowp+0xb5>
+ DB 122,255 ; jp 26ff9 <_sk_load_a8_dst_sse41_lowp+0xb5>
DB 255 ; (bad)
DB 255,157,255,255,255,142 ; lcall *-0x71000001(%rbp)
DB 255 ; (bad)
@@ -46901,28 +37403,28 @@ _sk_store_a8_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,29 ; ja 309c4 <_sk_store_a8_sse41_lowp+0x34>
+ DB 119,29 ; ja 27048 <_sk_store_a8_sse41_lowp+0x34>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,131,0,0,0 ; lea 0x83(%rip),%r9 # 30a34 <_sk_store_a8_sse41_lowp+0xa4>
+ DB 76,141,13,131,0,0,0 ; lea 0x83(%rip),%r9 # 270b8 <_sk_store_a8_sse41_lowp+0xa4>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 102,65,15,58,20,28,16,0 ; pextrb $0x0,%xmm3,(%r8,%rdx,1)
- DB 235,105 ; jmp 30a2d <_sk_store_a8_sse41_lowp+0x9d>
+ DB 235,105 ; jmp 270b1 <_sk_store_a8_sse41_lowp+0x9d>
DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,56,0,5,221,63,0,0 ; pshufb 0x3fdd(%rip),%xmm8 # 349b0 <_sk_srcover_rgba_8888_sse2_lowp+0x157c>
+ DB 102,68,15,56,0,5,121,59,0,0 ; pshufb 0x3b79(%rip),%xmm8 # 2abd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1118>
DB 102,69,15,214,4,16 ; movq %xmm8,(%r8,%rdx,1)
- DB 235,82 ; jmp 30a2d <_sk_store_a8_sse41_lowp+0x9d>
+ DB 235,82 ; jmp 270b1 <_sk_store_a8_sse41_lowp+0x9d>
DB 102,65,15,58,20,92,16,2,4 ; pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,56,0,5,125,56,0,0 ; pshufb 0x387d(%rip),%xmm8 # 34270 <_sk_srcover_rgba_8888_sse2_lowp+0xe3c>
+ DB 102,68,15,56,0,5,25,52,0,0 ; pshufb 0x3419(%rip),%xmm8 # 2a490 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
DB 102,69,15,58,21,4,16,0 ; pextrw $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,48 ; jmp 30a2d <_sk_store_a8_sse41_lowp+0x9d>
+ DB 235,48 ; jmp 270b1 <_sk_store_a8_sse41_lowp+0x9d>
DB 102,65,15,58,20,92,16,6,12 ; pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
DB 102,65,15,58,20,92,16,5,10 ; pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
DB 102,65,15,58,20,92,16,4,8 ; pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,56,0,5,89,56,0,0 ; pshufb 0x3859(%rip),%xmm8 # 34280 <_sk_srcover_rgba_8888_sse2_lowp+0xe4c>
+ DB 102,68,15,56,0,5,245,51,0,0 ; pshufb 0x33f5(%rip),%xmm8 # 2a4a0 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
DB 102,69,15,126,4,16 ; movd %xmm8,(%r8,%rdx,1)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
@@ -46956,18 +37458,18 @@ _sk_load_g8_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 30a89 <_sk_load_g8_sse41_lowp+0x39>
+ DB 119,34 ; ja 2710d <_sk_load_g8_sse41_lowp+0x39>
DB 102,15,239,201 ; pxor %xmm1,%xmm1
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 30b08 <_sk_load_g8_sse41_lowp+0xb8>
+ DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 2718c <_sk_load_g8_sse41_lowp+0xb8>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,100 ; jmp 30aed <_sk_load_g8_sse41_lowp+0x9d>
+ DB 235,100 ; jmp 27171 <_sk_load_g8_sse41_lowp+0x9d>
DB 102,65,15,56,48,4,16 ; pmovzxbw (%r8,%rdx,1),%xmm0
- DB 235,91 ; jmp 30aed <_sk_load_g8_sse41_lowp+0x9d>
+ DB 235,91 ; jmp 27171 <_sk_load_g8_sse41_lowp+0x9d>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,15,239,201 ; pxor %xmm1,%xmm1
DB 102,15,196,200,2 ; pinsrw $0x2,%eax,%xmm1
@@ -46975,7 +37477,7 @@ _sk_load_g8_sse41_lowp LABEL PROC
DB 102,15,110,192 ; movd %eax,%xmm0
DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
DB 102,15,58,14,193,252 ; pblendw $0xfc,%xmm1,%xmm0
- DB 235,54 ; jmp 30aed <_sk_load_g8_sse41_lowp+0x9d>
+ DB 235,54 ; jmp 27171 <_sk_load_g8_sse41_lowp+0x9d>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,15,239,201 ; pxor %xmm1,%xmm1
DB 102,15,196,200,6 ; pinsrw $0x6,%eax,%xmm1
@@ -46986,13 +37488,13 @@ _sk_load_g8_sse41_lowp LABEL PROC
DB 102,65,15,110,4,16 ; movd (%r8,%rdx,1),%xmm0
DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
DB 102,15,58,14,193,240 ; pblendw $0xf0,%xmm1,%xmm0
- DB 102,15,219,5,107,55,0,0 ; pand 0x376b(%rip),%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,219,5,7,51,0,0 ; pand 0x3307(%rip),%xmm0 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,98,55,0,0 ; movaps 0x3762(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 15,40,29,254,50,0,0 ; movaps 0x32fe(%rip),%xmm3 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
DB 102,15,111,208 ; movdqa %xmm0,%xmm2
DB 255,224 ; jmpq *%rax
- DB 118,255 ; jbe 30b09 <_sk_load_g8_sse41_lowp+0xb9>
+ DB 118,255 ; jbe 2718d <_sk_load_g8_sse41_lowp+0xb9>
DB 255 ; (bad)
DB 255,153,255,255,255,138 ; lcall *-0x75000001(%rcx)
DB 255 ; (bad)
@@ -47019,18 +37521,18 @@ _sk_load_g8_dst_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 30b5d <_sk_load_g8_dst_sse41_lowp+0x39>
+ DB 119,34 ; ja 271e1 <_sk_load_g8_dst_sse41_lowp+0x39>
DB 102,15,239,237 ; pxor %xmm5,%xmm5
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 30bdc <_sk_load_g8_dst_sse41_lowp+0xb8>
+ DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 27260 <_sk_load_g8_dst_sse41_lowp+0xb8>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,100 ; jmp 30bc1 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ DB 235,100 ; jmp 27245 <_sk_load_g8_dst_sse41_lowp+0x9d>
DB 102,65,15,56,48,36,16 ; pmovzxbw (%r8,%rdx,1),%xmm4
- DB 235,91 ; jmp 30bc1 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ DB 235,91 ; jmp 27245 <_sk_load_g8_dst_sse41_lowp+0x9d>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,15,239,237 ; pxor %xmm5,%xmm5
DB 102,15,196,232,2 ; pinsrw $0x2,%eax,%xmm5
@@ -47038,7 +37540,7 @@ _sk_load_g8_dst_sse41_lowp LABEL PROC
DB 102,15,110,224 ; movd %eax,%xmm4
DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
DB 102,15,58,14,229,252 ; pblendw $0xfc,%xmm5,%xmm4
- DB 235,54 ; jmp 30bc1 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ DB 235,54 ; jmp 27245 <_sk_load_g8_dst_sse41_lowp+0x9d>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,15,239,237 ; pxor %xmm5,%xmm5
DB 102,15,196,232,6 ; pinsrw $0x6,%eax,%xmm5
@@ -47049,13 +37551,13 @@ _sk_load_g8_dst_sse41_lowp LABEL PROC
DB 102,65,15,110,36,16 ; movd (%r8,%rdx,1),%xmm4
DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
DB 102,15,58,14,229,240 ; pblendw $0xf0,%xmm5,%xmm4
- DB 102,15,219,37,151,54,0,0 ; pand 0x3697(%rip),%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,219,37,51,50,0,0 ; pand 0x3233(%rip),%xmm4 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,142,54,0,0 ; movaps 0x368e(%rip),%xmm7 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 15,40,61,42,50,0,0 ; movaps 0x322a(%rip),%xmm7 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,236 ; movdqa %xmm4,%xmm5
DB 102,15,111,244 ; movdqa %xmm4,%xmm6
DB 255,224 ; jmpq *%rax
- DB 118,255 ; jbe 30bdd <_sk_load_g8_dst_sse41_lowp+0xb9>
+ DB 118,255 ; jbe 27261 <_sk_load_g8_dst_sse41_lowp+0xb9>
DB 255 ; (bad)
DB 255,153,255,255,255,138 ; lcall *-0x75000001(%rcx)
DB 255 ; (bad)
@@ -47076,14 +37578,14 @@ PUBLIC _sk_scale_1_float_sse41_lowp
_sk_scale_1_float_sse41_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,89,5,204,52,0,0 ; mulss 0x34cc(%rip),%xmm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 243,68,15,88,5,147,52,0,0 ; addss 0x3493(%rip),%xmm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 243,68,15,89,5,136,48,0,0 ; mulss 0x3088(%rip),%xmm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ DB 243,68,15,88,5,79,48,0,0 ; addss 0x304f(%rip),%xmm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 243,65,15,44,192 ; cvttss2si %xmm8,%eax
DB 102,68,15,110,192 ; movd %eax,%xmm8
DB 242,69,15,112,192,0 ; pshuflw $0x0,%xmm8,%xmm8
DB 102,69,15,112,192,80 ; pshufd $0x50,%xmm8,%xmm8
DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,68,15,111,13,43,54,0,0 ; movdqa 0x362b(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,199,49,0,0 ; movdqa 0x31c7(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
@@ -47108,18 +37610,18 @@ _sk_scale_u8_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,36 ; ja 30cab <_sk_scale_u8_sse41_lowp+0x3b>
+ DB 119,36 ; ja 2732f <_sk_scale_u8_sse41_lowp+0x3b>
DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,222,0,0,0 ; lea 0xde(%rip),%r9 # 30d74 <_sk_scale_u8_sse41_lowp+0x104>
+ DB 76,141,13,222,0,0,0 ; lea 0xde(%rip),%r9 # 273f8 <_sk_scale_u8_sse41_lowp+0x104>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,111 ; jmp 30d1a <_sk_scale_u8_sse41_lowp+0xaa>
+ DB 235,111 ; jmp 2739e <_sk_scale_u8_sse41_lowp+0xaa>
DB 102,69,15,56,48,4,16 ; pmovzxbw (%r8,%rdx,1),%xmm8
- DB 235,102 ; jmp 30d1a <_sk_scale_u8_sse41_lowp+0xaa>
+ DB 235,102 ; jmp 2739e <_sk_scale_u8_sse41_lowp+0xaa>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
DB 102,68,15,196,200,2 ; pinsrw $0x2,%eax,%xmm9
@@ -47127,7 +37629,7 @@ _sk_scale_u8_sse41_lowp LABEL PROC
DB 102,68,15,110,192 ; movd %eax,%xmm8
DB 102,69,15,56,48,192 ; pmovzxbw %xmm8,%xmm8
DB 102,69,15,58,14,193,252 ; pblendw $0xfc,%xmm9,%xmm8
- DB 235,60 ; jmp 30d1a <_sk_scale_u8_sse41_lowp+0xaa>
+ DB 235,60 ; jmp 2739e <_sk_scale_u8_sse41_lowp+0xaa>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
DB 102,68,15,196,200,6 ; pinsrw $0x6,%eax,%xmm9
@@ -47138,9 +37640,9 @@ _sk_scale_u8_sse41_lowp LABEL PROC
DB 102,69,15,110,4,16 ; movd (%r8,%rdx,1),%xmm8
DB 102,69,15,56,48,192 ; pmovzxbw %xmm8,%xmm8
DB 102,69,15,58,14,193,240 ; pblendw $0xf0,%xmm9,%xmm8
- DB 102,68,15,219,5,61,53,0,0 ; pand 0x353d(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,219,5,217,48,0,0 ; pand 0x30d9(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,68,15,111,13,47,53,0,0 ; movdqa 0x352f(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,203,48,0,0 ; movdqa 0x30cb(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
@@ -47166,7 +37668,7 @@ _sk_scale_u8_sse41_lowp LABEL PROC
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 123,255 ; jnp 30d89 <_sk_scale_u8_sse41_lowp+0x119>
+ DB 123,255 ; jnp 2740d <_sk_scale_u8_sse41_lowp+0x119>
DB 255 ; (bad)
DB 255,106,255 ; ljmp *-0x1(%rdx)
DB 255 ; (bad)
@@ -47176,13 +37678,13 @@ PUBLIC _sk_lerp_1_float_sse41_lowp
_sk_lerp_1_float_sse41_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,89,5,52,51,0,0 ; mulss 0x3334(%rip),%xmm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 243,68,15,88,5,251,50,0,0 ; addss 0x32fb(%rip),%xmm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 243,68,15,89,5,240,46,0,0 ; mulss 0x2ef0(%rip),%xmm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ DB 243,68,15,88,5,183,46,0,0 ; addss 0x2eb7(%rip),%xmm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 243,65,15,44,192 ; cvttss2si %xmm8,%eax
DB 102,68,15,110,192 ; movd %eax,%xmm8
DB 242,69,15,112,192,0 ; pshuflw $0x0,%xmm8,%xmm8
DB 102,69,15,112,192,80 ; pshufd $0x50,%xmm8,%xmm8
- DB 102,68,15,111,13,152,52,0,0 ; movdqa 0x3498(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,52,48,0,0 ; movdqa 0x3034(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
@@ -47220,18 +37722,18 @@ _sk_lerp_u8_sse41_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,36 ; ja 30e7f <_sk_lerp_u8_sse41_lowp+0x3b>
+ DB 119,36 ; ja 27503 <_sk_lerp_u8_sse41_lowp+0x3b>
DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,30,1,0,0 ; lea 0x11e(%rip),%r9 # 30f88 <_sk_lerp_u8_sse41_lowp+0x144>
+ DB 76,141,13,30,1,0,0 ; lea 0x11e(%rip),%r9 # 2760c <_sk_lerp_u8_sse41_lowp+0x144>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,111 ; jmp 30eee <_sk_lerp_u8_sse41_lowp+0xaa>
+ DB 235,111 ; jmp 27572 <_sk_lerp_u8_sse41_lowp+0xaa>
DB 102,69,15,56,48,4,16 ; pmovzxbw (%r8,%rdx,1),%xmm8
- DB 235,102 ; jmp 30eee <_sk_lerp_u8_sse41_lowp+0xaa>
+ DB 235,102 ; jmp 27572 <_sk_lerp_u8_sse41_lowp+0xaa>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
DB 102,68,15,196,200,2 ; pinsrw $0x2,%eax,%xmm9
@@ -47239,7 +37741,7 @@ _sk_lerp_u8_sse41_lowp LABEL PROC
DB 102,68,15,110,192 ; movd %eax,%xmm8
DB 102,69,15,56,48,192 ; pmovzxbw %xmm8,%xmm8
DB 102,69,15,58,14,193,252 ; pblendw $0xfc,%xmm9,%xmm8
- DB 235,60 ; jmp 30eee <_sk_lerp_u8_sse41_lowp+0xaa>
+ DB 235,60 ; jmp 27572 <_sk_lerp_u8_sse41_lowp+0xaa>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
DB 102,68,15,196,200,6 ; pinsrw $0x6,%eax,%xmm9
@@ -47250,8 +37752,8 @@ _sk_lerp_u8_sse41_lowp LABEL PROC
DB 102,69,15,110,4,16 ; movd (%r8,%rdx,1),%xmm8
DB 102,69,15,56,48,192 ; pmovzxbw %xmm8,%xmm8
DB 102,69,15,58,14,193,240 ; pblendw $0xf0,%xmm9,%xmm8
- DB 102,68,15,219,5,105,51,0,0 ; pand 0x3369(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,68,15,111,21,96,51,0,0 ; movdqa 0x3360(%rip),%xmm10 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,219,5,5,47,0,0 ; pand 0x2f05(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ DB 102,68,15,111,21,252,46,0,0 ; movdqa 0x2efc(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
DB 102,69,15,239,202 ; pxor %xmm10,%xmm9
DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
@@ -47281,7 +37783,7 @@ _sk_lerp_u8_sse41_lowp LABEL PROC
DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
DB 255,224 ; jmpq *%rax
DB 144 ; nop
- DB 235,254 ; jmp 30f88 <_sk_lerp_u8_sse41_lowp+0x144>
+ DB 235,254 ; jmp 2760c <_sk_lerp_u8_sse41_lowp+0x144>
DB 255 ; (bad)
DB 255,17 ; callq *(%rcx)
DB 255 ; (bad)
@@ -47313,48 +37815,48 @@ _sk_srcover_rgba_8888_sse41_lowp LABEL PROC
DB 65,254,202 ; dec %r10b
DB 69,15,182,202 ; movzbl %r10b,%r9d
DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,38 ; ja 30fef <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ DB 119,38 ; ja 27673 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 76,141,29,23,2,0,0 ; lea 0x217(%rip),%r11 # 311ec <_sk_srcover_rgba_8888_sse41_lowp+0x248>
+ DB 76,141,29,23,2,0,0 ; lea 0x217(%rip),%r11 # 27870 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
DB 75,99,4,139 ; movslq (%r11,%r9,4),%rax
DB 76,1,216 ; add %r11,%rax
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 255,224 ; jmpq *%rax
DB 102,65,15,110,52,144 ; movd (%r8,%rdx,4),%xmm6
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 31048 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ DB 235,89 ; jmp 276cc <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
DB 243,65,15,111,52,144 ; movdqu (%r8,%rdx,4),%xmm6
DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 31048 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ DB 235,74 ; jmp 276cc <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 243,65,15,126,52,144 ; movq (%r8,%rdx,4),%xmm6
DB 102,65,15,58,14,240,240 ; pblendw $0xf0,%xmm8,%xmm6
DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,37 ; jmp 31048 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ DB 235,37 ; jmp 276cc <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
DB 243,65,15,111,52,144 ; movdqu (%r8,%rdx,4),%xmm6
- DB 102,15,111,37,208,57,0,0 ; movdqa 0x39d0(%rip),%xmm4 # 34a20 <_sk_srcover_rgba_8888_sse2_lowp+0x15ec>
+ DB 102,15,111,37,44,53,0,0 ; movdqa 0x352c(%rip),%xmm4 # 2ac00 <_sk_srcover_rgba_8888_sse2_lowp+0x1148>
DB 102,15,111,238 ; movdqa %xmm6,%xmm5
DB 102,15,56,0,236 ; pshufb %xmm4,%xmm5
DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
DB 102,15,56,0,252 ; pshufb %xmm4,%xmm7
DB 102,15,108,239 ; punpcklqdq %xmm7,%xmm5
- DB 102,68,15,111,37,240,49,0,0 ; movdqa 0x31f0(%rip),%xmm12 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,37,140,45,0,0 ; movdqa 0x2d8c(%rip),%xmm12 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,229 ; movdqa %xmm5,%xmm4
DB 102,65,15,219,228 ; pand %xmm12,%xmm4
DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,68,15,111,13,217,57,0,0 ; movdqa 0x39d9(%rip),%xmm9 # 34a60 <_sk_srcover_rgba_8888_sse2_lowp+0x162c>
+ DB 102,68,15,111,13,5,53,0,0 ; movdqa 0x3505(%rip),%xmm9 # 2ac10 <_sk_srcover_rgba_8888_sse2_lowp+0x1158>
DB 102,15,111,254 ; movdqa %xmm6,%xmm7
DB 102,65,15,56,0,249 ; pshufb %xmm9,%xmm7
DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
DB 102,69,15,56,0,209 ; pshufb %xmm9,%xmm10
DB 102,65,15,108,250 ; punpcklqdq %xmm10,%xmm7
- DB 102,68,15,111,13,70,58,0,0 ; movdqa 0x3a46(%rip),%xmm9 # 34af0 <_sk_srcover_rgba_8888_sse2_lowp+0x16bc>
+ DB 102,68,15,111,13,242,52,0,0 ; movdqa 0x34f2(%rip),%xmm9 # 2ac20 <_sk_srcover_rgba_8888_sse2_lowp+0x1168>
DB 102,65,15,56,0,241 ; pshufb %xmm9,%xmm6
DB 102,69,15,56,0,193 ; pshufb %xmm9,%xmm8
DB 102,65,15,108,240 ; punpcklqdq %xmm8,%xmm6
@@ -47396,19 +37898,19 @@ _sk_srcover_rgba_8888_sse41_lowp LABEL PROC
DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
DB 102,65,15,235,196 ; por %xmm12,%xmm0
DB 65,128,250,6 ; cmp $0x6,%r10b
- DB 119,24 ; ja 31192 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- DB 76,141,21,135,0,0,0 ; lea 0x87(%rip),%r10 # 31208 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
+ DB 119,24 ; ja 27816 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ DB 76,141,21,135,0,0,0 ; lea 0x87(%rip),%r10 # 2788c <_sk_srcover_rgba_8888_sse41_lowp+0x264>
DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
DB 76,1,208 ; add %r10,%rax
DB 255,224 ; jmpq *%rax
DB 102,65,15,126,4,144 ; movd %xmm0,(%r8,%rdx,4)
- DB 235,63 ; jmp 311d1 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ DB 235,63 ; jmp 27855 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
DB 243,65,15,127,4,144 ; movdqu %xmm0,(%r8,%rdx,4)
DB 243,65,15,127,76,144,16 ; movdqu %xmm1,0x10(%r8,%rdx,4)
- DB 235,48 ; jmp 311d1 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ DB 235,48 ; jmp 27855 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
DB 102,65,15,58,22,68,144,8,2 ; pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
DB 102,65,15,214,4,144 ; movq %xmm0,(%r8,%rdx,4)
- DB 235,31 ; jmp 311d1 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ DB 235,31 ; jmp 27855 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
DB 102,65,15,58,22,76,144,24,2 ; pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
DB 102,65,15,58,22,76,144,20,1 ; pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
DB 102,65,15,126,76,144,16 ; movd %xmm1,0x10(%r8,%rdx,4)
@@ -47483,13 +37985,13 @@ _sk_start_pipeline_sse2_lowp LABEL PROC
DB 73,137,246 ; mov %rsi,%r14
DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
DB 76,57,203 ; cmp %r9,%rbx
- DB 15,131,153,0,0,0 ; jae 3133e <_sk_start_pipeline_sse2_lowp+0x11a>
+ DB 15,131,153,0,0,0 ; jae 279c2 <_sk_start_pipeline_sse2_lowp+0x11a>
DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
DB 72,141,64,8 ; lea 0x8(%rax),%rax
DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 119,62 ; ja 31305 <_sk_start_pipeline_sse2_lowp+0xe1>
+ DB 119,62 ; ja 27989 <_sk_start_pipeline_sse2_lowp+0xe1>
DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
DB 49,255 ; xor %edi,%edi
DB 15,87,192 ; xorps %xmm0,%xmm0
@@ -47508,10 +38010,10 @@ _sk_start_pipeline_sse2_lowp LABEL PROC
DB 73,131,196,16 ; add $0x10,%r12
DB 77,57,252 ; cmp %r15,%r12
DB 73,137,212 ; mov %rdx,%r12
- DB 118,201 ; jbe 312ce <_sk_start_pipeline_sse2_lowp+0xaa>
+ DB 118,201 ; jbe 27952 <_sk_start_pipeline_sse2_lowp+0xaa>
DB 76,137,255 ; mov %r15,%rdi
DB 72,41,215 ; sub %rdx,%rdi
- DB 116,33 ; je 3132e <_sk_start_pipeline_sse2_lowp+0x10a>
+ DB 116,33 ; je 279b2 <_sk_start_pipeline_sse2_lowp+0x10a>
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,87,201 ; xorps %xmm1,%xmm1
DB 15,87,210 ; xorps %xmm2,%xmm2
@@ -47525,7 +38027,7 @@ _sk_start_pipeline_sse2_lowp LABEL PROC
DB 65,255,213 ; callq *%r13
DB 72,255,195 ; inc %rbx
DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 15,133,121,255,255,255 ; jne 312b7 <_sk_start_pipeline_sse2_lowp+0x93>
+ DB 15,133,121,255,255,255 ; jne 2793b <_sk_start_pipeline_sse2_lowp+0x93>
DB 15,40,181,32,255,255,255 ; movaps -0xe0(%rbp),%xmm6
DB 15,40,189,48,255,255,255 ; movaps -0xd0(%rbp),%xmm7
DB 68,15,40,133,64,255,255,255 ; movaps -0xc0(%rbp),%xmm8
@@ -47576,7 +38078,7 @@ _sk_uniform_color_sse2_lowp LABEL PROC
PUBLIC _sk_black_color_sse2_lowp
_sk_black_color_sse2_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,110,46,0,0 ; movaps 0x2e6e(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 15,40,29,10,42,0,0 ; movaps 0x2a0a(%rip),%xmm3 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,87,201 ; xorps %xmm1,%xmm1
DB 15,87,210 ; xorps %xmm2,%xmm2
@@ -47585,7 +38087,7 @@ _sk_black_color_sse2_lowp LABEL PROC
PUBLIC _sk_white_color_sse2_lowp
_sk_white_color_sse2_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,5,90,46,0,0 ; movaps 0x2e5a(%rip),%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 15,40,5,246,41,0,0 ; movaps 0x29f6(%rip),%xmm0 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,40,216 ; movaps %xmm0,%xmm3
@@ -47594,10 +38096,10 @@ _sk_white_color_sse2_lowp LABEL PROC
PUBLIC _sk_set_rgb_sse2_lowp
_sk_set_rgb_sse2_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,21,185,44,0,0 ; movss 0x2cb9(%rip),%xmm2 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ DB 243,15,16,21,117,40,0,0 ; movss 0x2875(%rip),%xmm2 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
DB 243,15,16,0 ; movss (%rax),%xmm0
DB 243,15,89,194 ; mulss %xmm2,%xmm0
- DB 243,68,15,16,5,120,44,0,0 ; movss 0x2c78(%rip),%xmm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 243,68,15,16,5,52,40,0,0 ; movss 0x2834(%rip),%xmm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 243,65,15,88,192 ; addss %xmm8,%xmm0
DB 243,68,15,44,192 ; cvttss2si %xmm0,%r8d
DB 102,65,15,110,192 ; movd %r8d,%xmm0
@@ -47622,7 +38124,7 @@ _sk_set_rgb_sse2_lowp LABEL PROC
PUBLIC _sk_premul_sse2_lowp
_sk_premul_sse2_lowp LABEL PROC
DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,68,15,111,5,204,45,0,0 ; movdqa 0x2dcc(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,104,41,0,0 ; movdqa 0x2968(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,15,213,203 ; pmullw %xmm3,%xmm1
@@ -47662,7 +38164,7 @@ _sk_move_dst_src_sse2_lowp LABEL PROC
PUBLIC _sk_invert_sse2_lowp
_sk_invert_sse2_lowp LABEL PROC
- DB 102,68,15,111,5,106,45,0,0 ; movdqa 0x2d6a(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,6,41,0,0 ; movdqa 0x2906(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
DB 102,68,15,249,200 ; psubw %xmm0,%xmm9
DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
@@ -47690,7 +38192,7 @@ PUBLIC _sk_srcatop_sse2_lowp
_sk_srcatop_sse2_lowp LABEL PROC
DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,111,29,14,45,0,0 ; movdqa 0x2d0e(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,111,29,170,40,0,0 ; movdqa 0x28aa(%rip),%xmm3 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
DB 102,69,15,249,200 ; psubw %xmm8,%xmm9
DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
@@ -47720,7 +38222,7 @@ PUBLIC _sk_dstatop_sse2_lowp
_sk_dstatop_sse2_lowp LABEL PROC
DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
DB 102,68,15,213,195 ; pmullw %xmm3,%xmm8
- DB 102,68,15,111,13,142,44,0,0 ; movdqa 0x2c8e(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,42,40,0,0 ; movdqa 0x282a(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
@@ -47747,7 +38249,7 @@ _sk_dstatop_sse2_lowp LABEL PROC
PUBLIC _sk_srcin_sse2_lowp
_sk_srcin_sse2_lowp LABEL PROC
DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,68,15,111,5,25,44,0,0 ; movdqa 0x2c19(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,181,39,0,0 ; movdqa 0x27b5(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,15,213,207 ; pmullw %xmm7,%xmm1
@@ -47766,7 +38268,7 @@ PUBLIC _sk_dstin_sse2_lowp
_sk_dstin_sse2_lowp LABEL PROC
DB 102,15,111,196 ; movdqa %xmm4,%xmm0
DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,68,15,111,5,208,43,0,0 ; movdqa 0x2bd0(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,108,39,0,0 ; movdqa 0x276c(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,15,111,205 ; movdqa %xmm5,%xmm1
@@ -47785,7 +38287,7 @@ _sk_dstin_sse2_lowp LABEL PROC
PUBLIC _sk_srcout_sse2_lowp
_sk_srcout_sse2_lowp LABEL PROC
- DB 102,68,15,111,5,135,43,0,0 ; movdqa 0x2b87(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,35,39,0,0 ; movdqa 0x2723(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
DB 102,68,15,249,207 ; psubw %xmm7,%xmm9
DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
@@ -47806,7 +38308,7 @@ _sk_srcout_sse2_lowp LABEL PROC
PUBLIC _sk_dstout_sse2_lowp
_sk_dstout_sse2_lowp LABEL PROC
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,68,15,111,5,48,43,0,0 ; movdqa 0x2b30(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,204,38,0,0 ; movdqa 0x26cc(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
DB 102,15,249,216 ; psubw %xmm0,%xmm3
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
@@ -47829,7 +38331,7 @@ _sk_dstout_sse2_lowp LABEL PROC
PUBLIC _sk_srcover_sse2_lowp
_sk_srcover_sse2_lowp LABEL PROC
- DB 102,68,15,111,13,214,42,0,0 ; movdqa 0x2ad6(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,114,38,0,0 ; movdqa 0x2672(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
@@ -47856,7 +38358,7 @@ _sk_srcover_sse2_lowp LABEL PROC
PUBLIC _sk_dstover_sse2_lowp
_sk_dstover_sse2_lowp LABEL PROC
- DB 102,68,15,111,5,92,42,0,0 ; movdqa 0x2a5c(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,248,37,0,0 ; movdqa 0x25f8(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
DB 102,68,15,249,207 ; psubw %xmm7,%xmm9
DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
@@ -47881,7 +38383,7 @@ _sk_dstover_sse2_lowp LABEL PROC
PUBLIC _sk_modulate_sse2_lowp
_sk_modulate_sse2_lowp LABEL PROC
DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,68,15,111,5,245,41,0,0 ; movdqa 0x29f5(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,145,37,0,0 ; movdqa 0x2591(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,15,213,205 ; pmullw %xmm5,%xmm1
@@ -47898,7 +38400,7 @@ _sk_modulate_sse2_lowp LABEL PROC
PUBLIC _sk_multiply_sse2_lowp
_sk_multiply_sse2_lowp LABEL PROC
- DB 102,68,15,111,13,180,41,0,0 ; movdqa 0x29b4(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,80,37,0,0 ; movdqa 0x2550(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
@@ -47941,12 +38443,12 @@ _sk_plus__sse2_lowp LABEL PROC
DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,68,15,111,21,224,49,0,0 ; movdqa 0x31e0(%rip),%xmm10 # 34b50 <_sk_srcover_rgba_8888_sse2_lowp+0x171c>
+ DB 102,68,15,111,21,140,44,0,0 ; movdqa 0x2c8c(%rip),%xmm10 # 2ac80 <_sk_srcover_rgba_8888_sse2_lowp+0x11c8>
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
DB 102,65,15,217,194 ; psubusw %xmm10,%xmm0
DB 102,69,15,239,228 ; pxor %xmm12,%xmm12
DB 102,65,15,117,196 ; pcmpeqw %xmm12,%xmm0
- DB 102,68,15,111,29,212,40,0,0 ; movdqa 0x28d4(%rip),%xmm11 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,29,112,36,0,0 ; movdqa 0x2470(%rip),%xmm11 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,219,200 ; pand %xmm0,%xmm1
DB 102,65,15,223,195 ; pandn %xmm11,%xmm0
DB 102,15,235,193 ; por %xmm1,%xmm0
@@ -47983,7 +38485,7 @@ _sk_screen_sse2_lowp LABEL PROC
DB 102,15,111,196 ; movdqa %xmm4,%xmm0
DB 102,15,253,193 ; paddw %xmm1,%xmm0
DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,68,15,111,21,52,40,0,0 ; movdqa 0x2834(%rip),%xmm10 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,21,208,35,0,0 ; movdqa 0x23d0(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
@@ -48013,7 +38515,7 @@ _sk_screen_sse2_lowp LABEL PROC
PUBLIC _sk_xor__sse2_lowp
_sk_xor__sse2_lowp LABEL PROC
DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,111,13,178,39,0,0 ; movdqa 0x27b2(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,78,35,0,0 ; movdqa 0x234e(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,209 ; movdqa %xmm9,%xmm10
DB 102,68,15,249,215 ; psubw %xmm7,%xmm10
DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
@@ -48053,7 +38555,7 @@ _sk_darken_sse2_lowp LABEL PROC
DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
DB 102,68,15,213,215 ; pmullw %xmm7,%xmm10
DB 102,68,15,213,227 ; pmullw %xmm3,%xmm12
- DB 102,68,15,111,13,125,47,0,0 ; movdqa 0x2f7d(%rip),%xmm9 # 34ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x16ac>
+ DB 102,68,15,111,13,9,42,0,0 ; movdqa 0x2a09(%rip),%xmm9 # 2abf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
DB 102,69,15,111,218 ; movdqa %xmm10,%xmm11
DB 102,69,15,239,217 ; pxor %xmm9,%xmm11
DB 102,65,15,111,204 ; movdqa %xmm12,%xmm1
@@ -48062,7 +38564,7 @@ _sk_darken_sse2_lowp LABEL PROC
DB 102,68,15,219,225 ; pand %xmm1,%xmm12
DB 102,65,15,223,202 ; pandn %xmm10,%xmm1
DB 102,65,15,235,204 ; por %xmm12,%xmm1
- DB 102,68,15,111,21,204,38,0,0 ; movdqa 0x26cc(%rip),%xmm10 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,21,104,34,0,0 ; movdqa 0x2268(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
@@ -48116,7 +38618,7 @@ _sk_lighten_sse2_lowp LABEL PROC
DB 102,65,15,253,196 ; paddw %xmm12,%xmm0
DB 102,68,15,213,231 ; pmullw %xmm7,%xmm12
DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,68,15,111,13,84,46,0,0 ; movdqa 0x2e54(%rip),%xmm9 # 34ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x16ac>
+ DB 102,68,15,111,13,224,40,0,0 ; movdqa 0x28e0(%rip),%xmm9 # 2abf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
DB 102,69,15,111,220 ; movdqa %xmm12,%xmm11
DB 102,69,15,239,217 ; pxor %xmm9,%xmm11
DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
@@ -48125,7 +38627,7 @@ _sk_lighten_sse2_lowp LABEL PROC
DB 102,68,15,219,225 ; pand %xmm1,%xmm12
DB 102,65,15,223,202 ; pandn %xmm10,%xmm1
DB 102,65,15,235,204 ; por %xmm12,%xmm1
- DB 102,68,15,111,21,163,37,0,0 ; movdqa 0x25a3(%rip),%xmm10 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,21,63,33,0,0 ; movdqa 0x213f(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
@@ -48179,7 +38681,7 @@ _sk_difference_sse2_lowp LABEL PROC
DB 102,65,15,253,196 ; paddw %xmm12,%xmm0
DB 102,68,15,213,231 ; pmullw %xmm7,%xmm12
DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,68,15,111,13,43,45,0,0 ; movdqa 0x2d2b(%rip),%xmm9 # 34ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x16ac>
+ DB 102,68,15,111,13,183,39,0,0 ; movdqa 0x27b7(%rip),%xmm9 # 2abf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
DB 102,69,15,111,220 ; movdqa %xmm12,%xmm11
DB 102,69,15,239,217 ; pxor %xmm9,%xmm11
DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
@@ -48188,10 +38690,10 @@ _sk_difference_sse2_lowp LABEL PROC
DB 102,68,15,219,225 ; pand %xmm1,%xmm12
DB 102,65,15,223,202 ; pandn %xmm10,%xmm1
DB 102,65,15,235,204 ; por %xmm12,%xmm1
- DB 102,68,15,111,21,122,36,0,0 ; movdqa 0x247a(%rip),%xmm10 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,21,22,32,0,0 ; movdqa 0x2016(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,68,15,111,29,215,44,0,0 ; movdqa 0x2cd7(%rip),%xmm11 # 34ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x169c>
+ DB 102,68,15,111,29,99,39,0,0 ; movdqa 0x2763(%rip),%xmm11 # 2abe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1128>
DB 102,65,15,219,203 ; pand %xmm11,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
DB 102,68,15,111,229 ; movdqa %xmm5,%xmm12
@@ -48244,10 +38746,10 @@ _sk_exclusion_sse2_lowp LABEL PROC
DB 102,15,111,196 ; movdqa %xmm4,%xmm0
DB 102,15,253,193 ; paddw %xmm1,%xmm0
DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,68,15,111,13,119,35,0,0 ; movdqa 0x2377(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,19,31,0,0 ; movdqa 0x1f13(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,68,15,111,21,212,43,0,0 ; movdqa 0x2bd4(%rip),%xmm10 # 34ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x169c>
+ DB 102,68,15,111,21,96,38,0,0 ; movdqa 0x2660(%rip),%xmm10 # 2abe0 <_sk_srcover_rgba_8888_sse2_lowp+0x1128>
DB 102,65,15,219,202 ; pand %xmm10,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
DB 102,15,111,205 ; movdqa %xmm5,%xmm1
@@ -48282,7 +38784,7 @@ _sk_hardlight_sse2_lowp LABEL PROC
DB 102,15,111,236 ; movdqa %xmm4,%xmm5
DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,15,111,21,208,34,0,0 ; movdqa 0x22d0(%rip),%xmm2 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,111,21,108,30,0,0 ; movdqa 0x1e6c(%rip),%xmm2 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,68,15,111,226 ; movdqa %xmm2,%xmm12
DB 102,68,15,249,231 ; psubw %xmm7,%xmm12
DB 102,65,15,111,196 ; movdqa %xmm12,%xmm0
@@ -48295,7 +38797,7 @@ _sk_hardlight_sse2_lowp LABEL PROC
DB 102,68,15,111,243 ; movdqa %xmm3,%xmm14
DB 102,69,15,249,241 ; psubw %xmm9,%xmm14
DB 102,69,15,253,201 ; paddw %xmm9,%xmm9
- DB 102,15,111,21,12,43,0,0 ; movdqa 0x2b0c(%rip),%xmm2 # 34ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x16ac>
+ DB 102,15,111,21,152,37,0,0 ; movdqa 0x2598(%rip),%xmm2 # 2abf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
DB 102,15,111,199 ; movdqa %xmm7,%xmm0
DB 102,68,15,111,215 ; movdqa %xmm7,%xmm10
DB 102,15,111,231 ; movdqa %xmm7,%xmm4
@@ -48314,7 +38816,7 @@ _sk_hardlight_sse2_lowp LABEL PROC
DB 102,68,15,219,232 ; pand %xmm0,%xmm13
DB 102,65,15,223,193 ; pandn %xmm9,%xmm0
DB 102,65,15,235,197 ; por %xmm13,%xmm0
- DB 102,15,253,5,47,34,0,0 ; paddw 0x222f(%rip),%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,253,5,203,29,0,0 ; paddw 0x1dcb(%rip),%xmm0 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,199 ; paddw %xmm15,%xmm0
DB 102,69,15,111,204 ; movdqa %xmm12,%xmm9
DB 102,68,15,213,201 ; pmullw %xmm1,%xmm9
@@ -48337,7 +38839,7 @@ _sk_hardlight_sse2_lowp LABEL PROC
DB 102,65,15,219,249 ; pand %xmm9,%xmm7
DB 102,68,15,223,201 ; pandn %xmm1,%xmm9
DB 102,68,15,235,207 ; por %xmm7,%xmm9
- DB 102,68,15,253,13,186,33,0,0 ; paddw 0x21ba(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,253,13,86,29,0,0 ; paddw 0x1d56(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,253,205 ; paddw %xmm13,%xmm9
DB 102,69,15,213,224 ; pmullw %xmm8,%xmm12
DB 102,69,15,111,251 ; movdqa %xmm11,%xmm15
@@ -48359,7 +38861,7 @@ _sk_hardlight_sse2_lowp LABEL PROC
DB 102,68,15,219,210 ; pand %xmm2,%xmm10
DB 102,65,15,223,208 ; pandn %xmm8,%xmm2
DB 102,65,15,235,210 ; por %xmm10,%xmm2
- DB 102,68,15,111,5,75,33,0,0 ; movdqa 0x214b(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,231,28,0,0 ; movdqa 0x1ce7(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
DB 102,65,15,253,215 ; paddw %xmm15,%xmm2
DB 102,68,15,213,220 ; pmullw %xmm4,%xmm11
@@ -48387,7 +38889,7 @@ _sk_overlay_sse2_lowp LABEL PROC
DB 102,15,127,124,36,16 ; movdqa %xmm7,0x10(%rsp)
DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
DB 102,68,15,111,248 ; movdqa %xmm0,%xmm15
- DB 102,15,111,53,213,32,0,0 ; movdqa 0x20d5(%rip),%xmm6 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,111,53,113,28,0,0 ; movdqa 0x1c71(%rip),%xmm6 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
DB 102,69,15,249,222 ; psubw %xmm14,%xmm11
DB 102,65,15,111,203 ; movdqa %xmm11,%xmm1
@@ -48409,7 +38911,7 @@ _sk_overlay_sse2_lowp LABEL PROC
DB 102,15,253,201 ; paddw %xmm1,%xmm1
DB 102,69,15,111,225 ; movdqa %xmm9,%xmm12
DB 102,68,15,249,225 ; psubw %xmm1,%xmm12
- DB 102,15,111,13,233,40,0,0 ; movdqa 0x28e9(%rip),%xmm1 # 34ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x16ac>
+ DB 102,15,111,13,117,35,0,0 ; movdqa 0x2375(%rip),%xmm1 # 2abf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
DB 102,69,15,111,238 ; movdqa %xmm14,%xmm13
DB 102,68,15,239,233 ; pxor %xmm1,%xmm13
DB 102,15,239,249 ; pxor %xmm1,%xmm7
@@ -48436,7 +38938,7 @@ _sk_overlay_sse2_lowp LABEL PROC
DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
DB 102,15,111,229 ; movdqa %xmm5,%xmm4
DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,111,61,104,40,0,0 ; movdqa 0x2868(%rip),%xmm7 # 34ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x16ac>
+ DB 102,15,111,61,244,34,0,0 ; movdqa 0x22f4(%rip),%xmm7 # 2abf0 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
DB 102,15,239,231 ; pxor %xmm7,%xmm4
DB 102,65,15,101,229 ; pcmpgtw %xmm13,%xmm4
DB 102,69,15,253,192 ; paddw %xmm8,%xmm8
@@ -48495,27 +38997,27 @@ _sk_load_8888_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 32391 <_sk_load_8888_sse2_lowp+0x44>
+ DB 119,41 ; ja 28a15 <_sk_load_8888_sse2_lowp+0x44>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,25,1,0,0 ; lea 0x119(%rip),%r9 # 32490 <_sk_load_8888_sse2_lowp+0x143>
+ DB 76,141,13,25,1,0,0 ; lea 0x119(%rip),%r9 # 28b14 <_sk_load_8888_sse2_lowp+0x143>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 255,224 ; jmpq *%rax
DB 243,65,15,16,28,144 ; movss (%r8,%rdx,4),%xmm3
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 323f7 <_sk_load_8888_sse2_lowp+0xaa>
+ DB 235,102 ; jmp 28a7b <_sk_load_8888_sse2_lowp+0xaa>
DB 102,65,15,16,28,144 ; movupd (%r8,%rdx,4),%xmm3
DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 323f7 <_sk_load_8888_sse2_lowp+0xaa>
+ DB 235,87 ; jmp 28a7b <_sk_load_8888_sse2_lowp+0xaa>
DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
DB 102,65,15,40,216 ; movapd %xmm8,%xmm3
DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 235,52 ; jmp 323f7 <_sk_load_8888_sse2_lowp+0xaa>
+ DB 235,52 ; jmp 28a7b <_sk_load_8888_sse2_lowp+0xaa>
DB 102,65,15,110,68,144,24 ; movd 0x18(%r8,%rdx,4),%xmm0
DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
DB 243,65,15,16,68,144,20 ; movss 0x14(%r8,%rdx,4),%xmm0
@@ -48532,7 +39034,7 @@ _sk_load_8888_sse2_lowp LABEL PROC
DB 102,15,114,240,16 ; pslld $0x10,%xmm0
DB 102,15,114,224,16 ; psrad $0x10,%xmm0
DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,68,15,111,13,63,30,0,0 ; movdqa 0x1e3f(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,219,25,0,0 ; movdqa 0x19db(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
DB 102,65,15,219,193 ; pand %xmm9,%xmm0
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
@@ -48587,27 +39089,27 @@ _sk_load_8888_dst_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 324f0 <_sk_load_8888_dst_sse2_lowp+0x44>
+ DB 119,41 ; ja 28b74 <_sk_load_8888_dst_sse2_lowp+0x44>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,22,1,0,0 ; lea 0x116(%rip),%r9 # 325ec <_sk_load_8888_dst_sse2_lowp+0x140>
+ DB 76,141,13,22,1,0,0 ; lea 0x116(%rip),%r9 # 28c70 <_sk_load_8888_dst_sse2_lowp+0x140>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 255,224 ; jmpq *%rax
DB 243,65,15,16,60,144 ; movss (%r8,%rdx,4),%xmm7
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 32556 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ DB 235,102 ; jmp 28bda <_sk_load_8888_dst_sse2_lowp+0xaa>
DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 32556 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ DB 235,87 ; jmp 28bda <_sk_load_8888_dst_sse2_lowp+0xaa>
DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
DB 102,65,15,40,248 ; movapd %xmm8,%xmm7
DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,52 ; jmp 32556 <_sk_load_8888_dst_sse2_lowp+0xaa>
+ DB 235,52 ; jmp 28bda <_sk_load_8888_dst_sse2_lowp+0xaa>
DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 243,65,15,16,100,144,20 ; movss 0x14(%r8,%rdx,4),%xmm4
@@ -48624,7 +39126,7 @@ _sk_load_8888_dst_sse2_lowp LABEL PROC
DB 102,15,114,244,16 ; pslld $0x10,%xmm4
DB 102,15,114,228,16 ; psrad $0x10,%xmm4
DB 102,15,107,236 ; packssdw %xmm4,%xmm5
- DB 102,68,15,111,13,224,28,0,0 ; movdqa 0x1ce0(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,124,24,0,0 ; movdqa 0x187c(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,229 ; movdqa %xmm5,%xmm4
DB 102,65,15,219,225 ; pand %xmm9,%xmm4
DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
@@ -48690,21 +39192,21 @@ _sk_store_8888_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,27 ; ja 3268b <_sk_store_8888_sse2_lowp+0x83>
+ DB 119,27 ; ja 28d0f <_sk_store_8888_sse2_lowp+0x83>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,98,0,0,0 ; lea 0x62(%rip),%r9 # 326dc <_sk_store_8888_sse2_lowp+0xd4>
+ DB 76,141,13,98,0,0,0 ; lea 0x62(%rip),%r9 # 28d60 <_sk_store_8888_sse2_lowp+0xd4>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 102,69,15,126,12,144 ; movd %xmm9,(%r8,%rdx,4)
- DB 235,75 ; jmp 326d6 <_sk_store_8888_sse2_lowp+0xce>
+ DB 235,75 ; jmp 28d5a <_sk_store_8888_sse2_lowp+0xce>
DB 243,69,15,127,12,144 ; movdqu %xmm9,(%r8,%rdx,4)
DB 243,69,15,127,68,144,16 ; movdqu %xmm8,0x10(%r8,%rdx,4)
- DB 235,60 ; jmp 326d6 <_sk_store_8888_sse2_lowp+0xce>
+ DB 235,60 ; jmp 28d5a <_sk_store_8888_sse2_lowp+0xce>
DB 102,69,15,112,193,78 ; pshufd $0x4e,%xmm9,%xmm8
DB 102,69,15,126,68,144,8 ; movd %xmm8,0x8(%r8,%rdx,4)
DB 102,69,15,214,12,144 ; movq %xmm9,(%r8,%rdx,4)
- DB 235,39 ; jmp 326d6 <_sk_store_8888_sse2_lowp+0xce>
+ DB 235,39 ; jmp 28d5a <_sk_store_8888_sse2_lowp+0xce>
DB 102,69,15,112,208,78 ; pshufd $0x4e,%xmm8,%xmm10
DB 102,69,15,126,84,144,24 ; movd %xmm10,0x18(%r8,%rdx,4)
DB 102,69,15,112,208,229 ; pshufd $0xe5,%xmm8,%xmm10
@@ -48747,27 +39249,27 @@ _sk_load_bgra_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 3273c <_sk_load_bgra_sse2_lowp+0x44>
+ DB 119,41 ; ja 28dc0 <_sk_load_bgra_sse2_lowp+0x44>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,22,1,0,0 ; lea 0x116(%rip),%r9 # 32838 <_sk_load_bgra_sse2_lowp+0x140>
+ DB 76,141,13,22,1,0,0 ; lea 0x116(%rip),%r9 # 28ebc <_sk_load_bgra_sse2_lowp+0x140>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 255,224 ; jmpq *%rax
DB 243,65,15,16,28,144 ; movss (%r8,%rdx,4),%xmm3
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 327a2 <_sk_load_bgra_sse2_lowp+0xaa>
+ DB 235,102 ; jmp 28e26 <_sk_load_bgra_sse2_lowp+0xaa>
DB 102,65,15,16,28,144 ; movupd (%r8,%rdx,4),%xmm3
DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 327a2 <_sk_load_bgra_sse2_lowp+0xaa>
+ DB 235,87 ; jmp 28e26 <_sk_load_bgra_sse2_lowp+0xaa>
DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
DB 102,65,15,40,216 ; movapd %xmm8,%xmm3
DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 235,52 ; jmp 327a2 <_sk_load_bgra_sse2_lowp+0xaa>
+ DB 235,52 ; jmp 28e26 <_sk_load_bgra_sse2_lowp+0xaa>
DB 102,65,15,110,68,144,24 ; movd 0x18(%r8,%rdx,4),%xmm0
DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
DB 243,65,15,16,68,144,20 ; movss 0x14(%r8,%rdx,4),%xmm0
@@ -48784,7 +39286,7 @@ _sk_load_bgra_sse2_lowp LABEL PROC
DB 102,15,114,240,16 ; pslld $0x10,%xmm0
DB 102,15,114,224,16 ; psrad $0x10,%xmm0
DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,68,15,111,13,148,26,0,0 ; movdqa 0x1a94(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,48,22,0,0 ; movdqa 0x1630(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,209 ; movdqa %xmm1,%xmm2
DB 102,65,15,219,209 ; pand %xmm9,%xmm2
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
@@ -48835,27 +39337,27 @@ _sk_load_bgra_dst_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 32898 <_sk_load_bgra_dst_sse2_lowp+0x44>
+ DB 119,41 ; ja 28f1c <_sk_load_bgra_dst_sse2_lowp+0x44>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,22,1,0,0 ; lea 0x116(%rip),%r9 # 32994 <_sk_load_bgra_dst_sse2_lowp+0x140>
+ DB 76,141,13,22,1,0,0 ; lea 0x116(%rip),%r9 # 29018 <_sk_load_bgra_dst_sse2_lowp+0x140>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 255,224 ; jmpq *%rax
DB 243,65,15,16,60,144 ; movss (%r8,%rdx,4),%xmm7
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 328fe <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ DB 235,102 ; jmp 28f82 <_sk_load_bgra_dst_sse2_lowp+0xaa>
DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 328fe <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ DB 235,87 ; jmp 28f82 <_sk_load_bgra_dst_sse2_lowp+0xaa>
DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
DB 102,65,15,40,248 ; movapd %xmm8,%xmm7
DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,52 ; jmp 328fe <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ DB 235,52 ; jmp 28f82 <_sk_load_bgra_dst_sse2_lowp+0xaa>
DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 243,65,15,16,100,144,20 ; movss 0x14(%r8,%rdx,4),%xmm4
@@ -48872,7 +39374,7 @@ _sk_load_bgra_dst_sse2_lowp LABEL PROC
DB 102,15,114,244,16 ; pslld $0x10,%xmm4
DB 102,15,114,228,16 ; psrad $0x10,%xmm4
DB 102,15,107,236 ; packssdw %xmm4,%xmm5
- DB 102,68,15,111,13,56,25,0,0 ; movdqa 0x1938(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,212,20,0,0 ; movdqa 0x14d4(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,245 ; movdqa %xmm5,%xmm6
DB 102,65,15,219,241 ; pand %xmm9,%xmm6
DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
@@ -48938,21 +39440,21 @@ _sk_store_bgra_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,27 ; ja 32a33 <_sk_store_bgra_sse2_lowp+0x83>
+ DB 119,27 ; ja 290b7 <_sk_store_bgra_sse2_lowp+0x83>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,98,0,0,0 ; lea 0x62(%rip),%r9 # 32a84 <_sk_store_bgra_sse2_lowp+0xd4>
+ DB 76,141,13,98,0,0,0 ; lea 0x62(%rip),%r9 # 29108 <_sk_store_bgra_sse2_lowp+0xd4>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 102,69,15,126,12,144 ; movd %xmm9,(%r8,%rdx,4)
- DB 235,75 ; jmp 32a7e <_sk_store_bgra_sse2_lowp+0xce>
+ DB 235,75 ; jmp 29102 <_sk_store_bgra_sse2_lowp+0xce>
DB 243,69,15,127,12,144 ; movdqu %xmm9,(%r8,%rdx,4)
DB 243,69,15,127,68,144,16 ; movdqu %xmm8,0x10(%r8,%rdx,4)
- DB 235,60 ; jmp 32a7e <_sk_store_bgra_sse2_lowp+0xce>
+ DB 235,60 ; jmp 29102 <_sk_store_bgra_sse2_lowp+0xce>
DB 102,69,15,112,193,78 ; pshufd $0x4e,%xmm9,%xmm8
DB 102,69,15,126,68,144,8 ; movd %xmm8,0x8(%r8,%rdx,4)
DB 102,69,15,214,12,144 ; movq %xmm9,(%r8,%rdx,4)
- DB 235,39 ; jmp 32a7e <_sk_store_bgra_sse2_lowp+0xce>
+ DB 235,39 ; jmp 29102 <_sk_store_bgra_sse2_lowp+0xce>
DB 102,69,15,112,208,78 ; pshufd $0x4e,%xmm8,%xmm10
DB 102,69,15,126,84,144,24 ; movd %xmm10,0x18(%r8,%rdx,4)
DB 102,69,15,112,208,229 ; pshufd $0xe5,%xmm8,%xmm10
@@ -48995,23 +39497,23 @@ _sk_load_565_dst_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 32adc <_sk_load_565_dst_sse2_lowp+0x3c>
+ DB 119,34 ; ja 29160 <_sk_load_565_dst_sse2_lowp+0x3c>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,188,0,0,0 ; lea 0xbc(%rip),%r9 # 32b84 <_sk_load_565_dst_sse2_lowp+0xe4>
+ DB 76,141,13,188,0,0,0 ; lea 0xbc(%rip),%r9 # 29208 <_sk_load_565_dst_sse2_lowp+0xe4>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,66 ; jmp 32b1e <_sk_load_565_dst_sse2_lowp+0x7e>
+ DB 235,66 ; jmp 291a2 <_sk_load_565_dst_sse2_lowp+0x7e>
DB 243,65,15,111,36,80 ; movdqu (%r8,%rdx,2),%xmm4
- DB 235,58 ; jmp 32b1e <_sk_load_565_dst_sse2_lowp+0x7e>
+ DB 235,58 ; jmp 291a2 <_sk_load_565_dst_sse2_lowp+0x7e>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,65,15,196,100,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
DB 243,65,15,16,44,80 ; movss (%r8,%rdx,2),%xmm5
DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,34 ; jmp 32b1e <_sk_load_565_dst_sse2_lowp+0x7e>
+ DB 235,34 ; jmp 291a2 <_sk_load_565_dst_sse2_lowp+0x7e>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,65,15,196,100,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
DB 102,65,15,196,100,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -49019,11 +39521,11 @@ _sk_load_565_dst_sse2_lowp LABEL PROC
DB 102,65,15,18,36,80 ; movlpd (%r8,%rdx,2),%xmm4
DB 102,15,111,252 ; movdqa %xmm4,%xmm7
DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,219,61,209,31,0,0 ; pand 0x1fd1(%rip),%xmm7 # 34b00 <_sk_srcover_rgba_8888_sse2_lowp+0x16cc>
+ DB 102,15,219,61,125,26,0,0 ; pand 0x1a7d(%rip),%xmm7 # 2ac30 <_sk_srcover_rgba_8888_sse2_lowp+0x1178>
DB 102,15,111,236 ; movdqa %xmm4,%xmm5
DB 102,15,113,213,5 ; psrlw $0x5,%xmm5
- DB 102,15,219,45,208,31,0,0 ; pand 0x1fd0(%rip),%xmm5 # 34b10 <_sk_srcover_rgba_8888_sse2_lowp+0x16dc>
- DB 102,15,111,53,216,31,0,0 ; movdqa 0x1fd8(%rip),%xmm6 # 34b20 <_sk_srcover_rgba_8888_sse2_lowp+0x16ec>
+ DB 102,15,219,45,124,26,0,0 ; pand 0x1a7c(%rip),%xmm5 # 2ac40 <_sk_srcover_rgba_8888_sse2_lowp+0x1188>
+ DB 102,15,111,53,132,26,0,0 ; movdqa 0x1a84(%rip),%xmm6 # 2ac50 <_sk_srcover_rgba_8888_sse2_lowp+0x1198>
DB 102,15,219,244 ; pand %xmm4,%xmm6
DB 102,15,113,212,13 ; psrlw $0xd,%xmm4
DB 102,15,235,231 ; por %xmm7,%xmm4
@@ -49036,7 +39538,7 @@ _sk_load_565_dst_sse2_lowp LABEL PROC
DB 102,15,113,214,2 ; psrlw $0x2,%xmm6
DB 102,15,235,247 ; por %xmm7,%xmm6
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,222,22,0,0 ; movaps 0x16de(%rip),%xmm7 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 15,40,61,122,18,0,0 ; movaps 0x127a(%rip),%xmm7 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 255,224 ; jmpq *%rax
DB 77,255 ; rex.WRB (bad)
DB 255 ; (bad)
@@ -49058,10 +39560,10 @@ _sk_store_565_sse2_lowp LABEL PROC
DB 76,3,0 ; add (%rax),%r8
DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
DB 102,65,15,113,240,8 ; psllw $0x8,%xmm8
- DB 102,68,15,219,5,108,31,0,0 ; pand 0x1f6c(%rip),%xmm8 # 34b30 <_sk_srcover_rgba_8888_sse2_lowp+0x16fc>
+ DB 102,68,15,219,5,24,26,0,0 ; pand 0x1a18(%rip),%xmm8 # 2ac60 <_sk_srcover_rgba_8888_sse2_lowp+0x11a8>
DB 102,68,15,111,201 ; movdqa %xmm1,%xmm9
DB 102,65,15,113,241,3 ; psllw $0x3,%xmm9
- DB 102,68,15,219,13,104,31,0,0 ; pand 0x1f68(%rip),%xmm9 # 34b40 <_sk_srcover_rgba_8888_sse2_lowp+0x170c>
+ DB 102,68,15,219,13,20,26,0,0 ; pand 0x1a14(%rip),%xmm9 # 2ac70 <_sk_srcover_rgba_8888_sse2_lowp+0x11b8>
DB 102,69,15,235,200 ; por %xmm8,%xmm9
DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
DB 102,65,15,113,208,3 ; psrlw $0x3,%xmm8
@@ -49070,21 +39572,21 @@ _sk_store_565_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,31 ; ja 32c16 <_sk_store_565_sse2_lowp+0x76>
+ DB 119,31 ; ja 2929a <_sk_store_565_sse2_lowp+0x76>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,95,0,0,0 ; lea 0x5f(%rip),%r9 # 32c60 <_sk_store_565_sse2_lowp+0xc0>
+ DB 76,141,13,95,0,0,0 ; lea 0x5f(%rip),%r9 # 292e4 <_sk_store_565_sse2_lowp+0xc0>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 102,68,15,126,192 ; movd %xmm8,%eax
DB 102,65,137,4,80 ; mov %ax,(%r8,%rdx,2)
- DB 235,70 ; jmp 32c5c <_sk_store_565_sse2_lowp+0xbc>
+ DB 235,70 ; jmp 292e0 <_sk_store_565_sse2_lowp+0xbc>
DB 243,69,15,127,4,80 ; movdqu %xmm8,(%r8,%rdx,2)
- DB 235,62 ; jmp 32c5c <_sk_store_565_sse2_lowp+0xbc>
+ DB 235,62 ; jmp 292e0 <_sk_store_565_sse2_lowp+0xbc>
DB 102,65,15,197,192,2 ; pextrw $0x2,%xmm8,%eax
DB 102,65,137,68,80,4 ; mov %ax,0x4(%r8,%rdx,2)
DB 102,69,15,126,4,80 ; movd %xmm8,(%r8,%rdx,2)
- DB 235,42 ; jmp 32c5c <_sk_store_565_sse2_lowp+0xbc>
+ DB 235,42 ; jmp 292e0 <_sk_store_565_sse2_lowp+0xbc>
DB 102,65,15,197,192,6 ; pextrw $0x6,%xmm8,%eax
DB 102,65,137,68,80,12 ; mov %ax,0xc(%r8,%rdx,2)
DB 102,65,15,197,192,5 ; pextrw $0x5,%xmm8,%eax
@@ -49126,19 +39628,19 @@ _sk_load_a8_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 32cb5 <_sk_load_a8_sse2_lowp+0x39>
+ DB 119,34 ; ja 29339 <_sk_load_a8_sse2_lowp+0x39>
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,139,0,0,0 ; lea 0x8b(%rip),%r9 # 32d2c <_sk_load_a8_sse2_lowp+0xb0>
+ DB 76,141,13,139,0,0,0 ; lea 0x8b(%rip),%r9 # 293b0 <_sk_load_a8_sse2_lowp+0xb0>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,15,110,216 ; movd %eax,%xmm3
- DB 235,97 ; jmp 32d16 <_sk_load_a8_sse2_lowp+0x9a>
+ DB 235,97 ; jmp 2939a <_sk_load_a8_sse2_lowp+0x9a>
DB 243,65,15,126,28,16 ; movq (%r8,%rdx,1),%xmm3
DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 235,85 ; jmp 32d16 <_sk_load_a8_sse2_lowp+0x9a>
+ DB 235,85 ; jmp 2939a <_sk_load_a8_sse2_lowp+0x9a>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 102,15,196,216,2 ; pinsrw $0x2,%eax,%xmm3
@@ -49146,7 +39648,7 @@ _sk_load_a8_sse2_lowp LABEL PROC
DB 102,15,110,192 ; movd %eax,%xmm0
DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
DB 243,15,16,216 ; movss %xmm0,%xmm3
- DB 235,51 ; jmp 32d16 <_sk_load_a8_sse2_lowp+0x9a>
+ DB 235,51 ; jmp 2939a <_sk_load_a8_sse2_lowp+0x9a>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 102,15,196,216,6 ; pinsrw $0x6,%eax,%xmm3
@@ -49157,14 +39659,14 @@ _sk_load_a8_sse2_lowp LABEL PROC
DB 102,65,15,110,4,16 ; movd (%r8,%rdx,1),%xmm0
DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
DB 242,15,16,216 ; movsd %xmm0,%xmm3
- DB 102,15,219,29,66,21,0,0 ; pand 0x1542(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,219,29,222,16,0,0 ; pand 0x10de(%rip),%xmm3 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,87,201 ; xorps %xmm1,%xmm1
DB 15,87,210 ; xorps %xmm2,%xmm2
DB 255,224 ; jmpq *%rax
DB 144 ; nop
- DB 126,255 ; jle 32d2d <_sk_load_a8_sse2_lowp+0xb1>
+ DB 126,255 ; jle 293b1 <_sk_load_a8_sse2_lowp+0xb1>
DB 255 ; (bad)
DB 255,164,255,255,255,149,255 ; jmpq *-0x6a0001(%rdi,%rdi,8)
DB 255 ; (bad)
@@ -49192,19 +39694,19 @@ _sk_load_a8_dst_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 32d81 <_sk_load_a8_dst_sse2_lowp+0x39>
+ DB 119,34 ; ja 29405 <_sk_load_a8_dst_sse2_lowp+0x39>
DB 102,15,239,255 ; pxor %xmm7,%xmm7
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,139,0,0,0 ; lea 0x8b(%rip),%r9 # 32df8 <_sk_load_a8_dst_sse2_lowp+0xb0>
+ DB 76,141,13,139,0,0,0 ; lea 0x8b(%rip),%r9 # 2947c <_sk_load_a8_dst_sse2_lowp+0xb0>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,15,110,248 ; movd %eax,%xmm7
- DB 235,97 ; jmp 32de2 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ DB 235,97 ; jmp 29466 <_sk_load_a8_dst_sse2_lowp+0x9a>
DB 243,65,15,126,60,16 ; movq (%r8,%rdx,1),%xmm7
DB 102,15,96,248 ; punpcklbw %xmm0,%xmm7
- DB 235,85 ; jmp 32de2 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ DB 235,85 ; jmp 29466 <_sk_load_a8_dst_sse2_lowp+0x9a>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,15,239,255 ; pxor %xmm7,%xmm7
DB 102,15,196,248,2 ; pinsrw $0x2,%eax,%xmm7
@@ -49212,7 +39714,7 @@ _sk_load_a8_dst_sse2_lowp LABEL PROC
DB 102,15,110,224 ; movd %eax,%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
DB 243,15,16,252 ; movss %xmm4,%xmm7
- DB 235,51 ; jmp 32de2 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ DB 235,51 ; jmp 29466 <_sk_load_a8_dst_sse2_lowp+0x9a>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,15,239,255 ; pxor %xmm7,%xmm7
DB 102,15,196,248,6 ; pinsrw $0x6,%eax,%xmm7
@@ -49223,14 +39725,14 @@ _sk_load_a8_dst_sse2_lowp LABEL PROC
DB 102,65,15,110,36,16 ; movd (%r8,%rdx,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
DB 242,15,16,252 ; movsd %xmm4,%xmm7
- DB 102,15,219,61,118,20,0,0 ; pand 0x1476(%rip),%xmm7 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,219,61,18,16,0,0 ; pand 0x1012(%rip),%xmm7 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 72,173 ; lods %ds:(%rsi),%rax
DB 15,87,228 ; xorps %xmm4,%xmm4
DB 15,87,237 ; xorps %xmm5,%xmm5
DB 15,87,246 ; xorps %xmm6,%xmm6
DB 255,224 ; jmpq *%rax
DB 144 ; nop
- DB 126,255 ; jle 32df9 <_sk_load_a8_dst_sse2_lowp+0xb1>
+ DB 126,255 ; jle 2947d <_sk_load_a8_dst_sse2_lowp+0xb1>
DB 255 ; (bad)
DB 255,164,255,255,255,149,255 ; jmpq *-0x6a0001(%rdi,%rdi,8)
DB 255 ; (bad)
@@ -49258,42 +39760,42 @@ _sk_store_a8_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,29 ; ja 32e48 <_sk_store_a8_sse2_lowp+0x34>
+ DB 119,29 ; ja 294cc <_sk_store_a8_sse2_lowp+0x34>
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 32ec8 <_sk_store_a8_sse2_lowp+0xb4>
+ DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 2954c <_sk_store_a8_sse2_lowp+0xb4>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 102,15,126,216 ; movd %xmm3,%eax
DB 65,136,4,16 ; mov %al,(%r8,%rdx,1)
- DB 235,123 ; jmp 32ec3 <_sk_store_a8_sse2_lowp+0xaf>
- DB 102,68,15,111,5,15,20,0,0 ; movdqa 0x140f(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 235,123 ; jmp 29547 <_sk_store_a8_sse2_lowp+0xaf>
+ DB 102,68,15,111,5,171,15,0,0 ; movdqa 0xfab(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,68,15,219,195 ; pand %xmm3,%xmm8
DB 102,69,15,103,192 ; packuswb %xmm8,%xmm8
DB 102,69,15,214,4,16 ; movq %xmm8,(%r8,%rdx,1)
- DB 235,96 ; jmp 32ec3 <_sk_store_a8_sse2_lowp+0xaf>
+ DB 235,96 ; jmp 29547 <_sk_store_a8_sse2_lowp+0xaf>
DB 102,15,197,195,2 ; pextrw $0x2,%xmm3,%eax
DB 65,136,68,16,2 ; mov %al,0x2(%r8,%rdx,1)
- DB 102,68,15,111,5,234,19,0,0 ; movdqa 0x13ea(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,134,15,0,0 ; movdqa 0xf86(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,68,15,219,195 ; pand %xmm3,%xmm8
DB 102,69,15,103,192 ; packuswb %xmm8,%xmm8
DB 102,68,15,126,192 ; movd %xmm8,%eax
DB 102,65,137,4,16 ; mov %ax,(%r8,%rdx,1)
- DB 235,55 ; jmp 32ec3 <_sk_store_a8_sse2_lowp+0xaf>
+ DB 235,55 ; jmp 29547 <_sk_store_a8_sse2_lowp+0xaf>
DB 102,15,197,195,6 ; pextrw $0x6,%xmm3,%eax
DB 65,136,68,16,6 ; mov %al,0x6(%r8,%rdx,1)
DB 102,15,197,195,5 ; pextrw $0x5,%xmm3,%eax
DB 65,136,68,16,5 ; mov %al,0x5(%r8,%rdx,1)
DB 102,15,197,195,4 ; pextrw $0x4,%xmm3,%eax
DB 65,136,68,16,4 ; mov %al,0x4(%r8,%rdx,1)
- DB 102,68,15,111,5,173,19,0,0 ; movdqa 0x13ad(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,5,73,15,0,0 ; movdqa 0xf49(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,68,15,219,195 ; pand %xmm3,%xmm8
DB 102,69,15,103,192 ; packuswb %xmm8,%xmm8
DB 102,69,15,126,4,16 ; movd %xmm8,(%r8,%rdx,1)
DB 72,173 ; lods %ds:(%rsi),%rax
DB 255,224 ; jmpq *%rax
DB 144 ; nop
- DB 118,255 ; jbe 32ec9 <_sk_store_a8_sse2_lowp+0xb5>
+ DB 118,255 ; jbe 2954d <_sk_store_a8_sse2_lowp+0xb5>
DB 255 ; (bad)
DB 255,165,255,255,255,155 ; jmpq *-0x64000001(%rbp)
DB 255 ; (bad)
@@ -49322,19 +39824,19 @@ _sk_load_g8_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 32f1d <_sk_load_g8_sse2_lowp+0x39>
+ DB 119,34 ; ja 295a1 <_sk_load_g8_sse2_lowp+0x39>
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 32f9c <_sk_load_g8_sse2_lowp+0xb8>
+ DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 29620 <_sk_load_g8_sse2_lowp+0xb8>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,97 ; jmp 32f7e <_sk_load_g8_sse2_lowp+0x9a>
+ DB 235,97 ; jmp 29602 <_sk_load_g8_sse2_lowp+0x9a>
DB 243,65,15,126,4,16 ; movq (%r8,%rdx,1),%xmm0
DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 235,85 ; jmp 32f7e <_sk_load_g8_sse2_lowp+0x9a>
+ DB 235,85 ; jmp 29602 <_sk_load_g8_sse2_lowp+0x9a>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,196,192,2 ; pinsrw $0x2,%eax,%xmm0
@@ -49342,7 +39844,7 @@ _sk_load_g8_sse2_lowp LABEL PROC
DB 102,15,110,200 ; movd %eax,%xmm1
DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
DB 243,15,16,193 ; movss %xmm1,%xmm0
- DB 235,51 ; jmp 32f7e <_sk_load_g8_sse2_lowp+0x9a>
+ DB 235,51 ; jmp 29602 <_sk_load_g8_sse2_lowp+0x9a>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,196,192,6 ; pinsrw $0x6,%eax,%xmm0
@@ -49353,14 +39855,14 @@ _sk_load_g8_sse2_lowp LABEL PROC
DB 102,65,15,110,12,16 ; movd (%r8,%rdx,1),%xmm1
DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
DB 242,15,16,193 ; movsd %xmm1,%xmm0
- DB 102,15,219,5,218,18,0,0 ; pand 0x12da(%rip),%xmm0 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,219,5,118,14,0,0 ; pand 0xe76(%rip),%xmm0 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,209,18,0,0 ; movaps 0x12d1(%rip),%xmm3 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 15,40,29,109,14,0,0 ; movaps 0xe6d(%rip),%xmm3 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
DB 102,15,111,208 ; movdqa %xmm0,%xmm2
DB 255,224 ; jmpq *%rax
DB 15,31,0 ; nopl (%rax)
- DB 118,255 ; jbe 32f9d <_sk_load_g8_sse2_lowp+0xb9>
+ DB 118,255 ; jbe 29621 <_sk_load_g8_sse2_lowp+0xb9>
DB 255 ; (bad)
DB 255,156,255,255,255,141,255 ; lcall *-0x720001(%rdi,%rdi,8)
DB 255 ; (bad)
@@ -49386,19 +39888,19 @@ _sk_load_g8_dst_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 32ff1 <_sk_load_g8_dst_sse2_lowp+0x39>
+ DB 119,34 ; ja 29675 <_sk_load_g8_dst_sse2_lowp+0x39>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 33070 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 296f4 <_sk_load_g8_dst_sse2_lowp+0xb8>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,97 ; jmp 33052 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ DB 235,97 ; jmp 296d6 <_sk_load_g8_dst_sse2_lowp+0x9a>
DB 243,65,15,126,36,16 ; movq (%r8,%rdx,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 235,85 ; jmp 33052 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ DB 235,85 ; jmp 296d6 <_sk_load_g8_dst_sse2_lowp+0x9a>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,224,2 ; pinsrw $0x2,%eax,%xmm4
@@ -49406,7 +39908,7 @@ _sk_load_g8_dst_sse2_lowp LABEL PROC
DB 102,15,110,232 ; movd %eax,%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,51 ; jmp 33052 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ DB 235,51 ; jmp 296d6 <_sk_load_g8_dst_sse2_lowp+0x9a>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,224,6 ; pinsrw $0x6,%eax,%xmm4
@@ -49417,14 +39919,14 @@ _sk_load_g8_dst_sse2_lowp LABEL PROC
DB 102,65,15,110,44,16 ; movd (%r8,%rdx,1),%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 102,15,219,37,6,18,0,0 ; pand 0x1206(%rip),%xmm4 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,15,219,37,162,13,0,0 ; pand 0xda2(%rip),%xmm4 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,253,17,0,0 ; movaps 0x11fd(%rip),%xmm7 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 15,40,61,153,13,0,0 ; movaps 0xd99(%rip),%xmm7 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,236 ; movdqa %xmm4,%xmm5
DB 102,15,111,244 ; movdqa %xmm4,%xmm6
DB 255,224 ; jmpq *%rax
DB 15,31,0 ; nopl (%rax)
- DB 118,255 ; jbe 33071 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ DB 118,255 ; jbe 296f5 <_sk_load_g8_dst_sse2_lowp+0xb9>
DB 255 ; (bad)
DB 255,156,255,255,255,141,255 ; lcall *-0x720001(%rdi,%rdi,8)
DB 255 ; (bad)
@@ -49444,14 +39946,14 @@ PUBLIC _sk_scale_1_float_sse2_lowp
_sk_scale_1_float_sse2_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,89,5,56,16,0,0 ; mulss 0x1038(%rip),%xmm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 243,68,15,88,5,255,15,0,0 ; addss 0xfff(%rip),%xmm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 243,68,15,89,5,244,11,0,0 ; mulss 0xbf4(%rip),%xmm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ DB 243,68,15,88,5,187,11,0,0 ; addss 0xbbb(%rip),%xmm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 243,65,15,44,192 ; cvttss2si %xmm8,%eax
DB 102,68,15,110,192 ; movd %eax,%xmm8
DB 242,69,15,112,192,0 ; pshuflw $0x0,%xmm8,%xmm8
DB 102,69,15,112,192,80 ; pshufd $0x50,%xmm8,%xmm8
DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,68,15,111,13,151,17,0,0 ; movdqa 0x1197(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,51,13,0,0 ; movdqa 0xd33(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
@@ -49476,19 +39978,19 @@ _sk_scale_u8_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,36 ; ja 3313f <_sk_scale_u8_sse2_lowp+0x3b>
+ DB 119,36 ; ja 297c3 <_sk_scale_u8_sse2_lowp+0x3b>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,218,0,0,0 ; lea 0xda(%rip),%r9 # 33204 <_sk_scale_u8_sse2_lowp+0x100>
+ DB 76,141,13,218,0,0,0 ; lea 0xda(%rip),%r9 # 29888 <_sk_scale_u8_sse2_lowp+0x100>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,109 ; jmp 331ac <_sk_scale_u8_sse2_lowp+0xa8>
+ DB 235,109 ; jmp 29830 <_sk_scale_u8_sse2_lowp+0xa8>
DB 243,69,15,126,4,16 ; movq (%r8,%rdx,1),%xmm8
DB 102,68,15,96,192 ; punpcklbw %xmm0,%xmm8
- DB 235,96 ; jmp 331ac <_sk_scale_u8_sse2_lowp+0xa8>
+ DB 235,96 ; jmp 29830 <_sk_scale_u8_sse2_lowp+0xa8>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 102,68,15,196,192,2 ; pinsrw $0x2,%eax,%xmm8
@@ -49496,7 +39998,7 @@ _sk_scale_u8_sse2_lowp LABEL PROC
DB 102,68,15,110,200 ; movd %eax,%xmm9
DB 102,68,15,96,200 ; punpcklbw %xmm0,%xmm9
DB 243,69,15,16,193 ; movss %xmm9,%xmm8
- DB 235,57 ; jmp 331ac <_sk_scale_u8_sse2_lowp+0xa8>
+ DB 235,57 ; jmp 29830 <_sk_scale_u8_sse2_lowp+0xa8>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 102,68,15,196,192,6 ; pinsrw $0x6,%eax,%xmm8
@@ -49507,9 +40009,9 @@ _sk_scale_u8_sse2_lowp LABEL PROC
DB 102,69,15,110,12,16 ; movd (%r8,%rdx,1),%xmm9
DB 102,68,15,96,200 ; punpcklbw %xmm0,%xmm9
DB 242,69,15,16,193 ; movsd %xmm9,%xmm8
- DB 102,68,15,219,5,171,16,0,0 ; pand 0x10ab(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,219,5,71,12,0,0 ; pand 0xc47(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,68,15,111,13,157,16,0,0 ; movdqa 0x109d(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,57,12,0,0 ; movdqa 0xc39(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
@@ -49543,13 +40045,13 @@ PUBLIC _sk_lerp_1_float_sse2_lowp
_sk_lerp_1_float_sse2_lowp LABEL PROC
DB 72,173 ; lods %ds:(%rsi),%rax
DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,89,5,164,14,0,0 ; mulss 0xea4(%rip),%xmm8 # 340d4 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
- DB 243,68,15,88,5,107,14,0,0 ; addss 0xe6b(%rip),%xmm8 # 340a4 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
+ DB 243,68,15,89,5,96,10,0,0 ; mulss 0xa60(%rip),%xmm8 # 2a314 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ DB 243,68,15,88,5,39,10,0,0 ; addss 0xa27(%rip),%xmm8 # 2a2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
DB 243,65,15,44,192 ; cvttss2si %xmm8,%eax
DB 102,68,15,110,192 ; movd %eax,%xmm8
DB 242,69,15,112,192,0 ; pshuflw $0x0,%xmm8,%xmm8
DB 102,69,15,112,192,80 ; pshufd $0x50,%xmm8,%xmm8
- DB 102,68,15,111,13,8,16,0,0 ; movdqa 0x1008(%rip),%xmm9 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,13,164,11,0,0 ; movdqa 0xba4(%rip),%xmm9 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
@@ -49587,19 +40089,19 @@ _sk_lerp_u8_sse2_lowp LABEL PROC
DB 36,7 ; and $0x7,%al
DB 254,200 ; dec %al
DB 60,6 ; cmp $0x6,%al
- DB 119,36 ; ja 3330f <_sk_lerp_u8_sse2_lowp+0x3b>
+ DB 119,36 ; ja 29993 <_sk_lerp_u8_sse2_lowp+0x3b>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,30,1,0,0 ; lea 0x11e(%rip),%r9 # 33418 <_sk_lerp_u8_sse2_lowp+0x144>
+ DB 76,141,13,30,1,0,0 ; lea 0x11e(%rip),%r9 # 29a9c <_sk_lerp_u8_sse2_lowp+0x144>
DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
DB 76,1,200 ; add %r9,%rax
DB 255,224 ; jmpq *%rax
DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,109 ; jmp 3337c <_sk_lerp_u8_sse2_lowp+0xa8>
+ DB 235,109 ; jmp 29a00 <_sk_lerp_u8_sse2_lowp+0xa8>
DB 243,69,15,126,4,16 ; movq (%r8,%rdx,1),%xmm8
DB 102,68,15,96,192 ; punpcklbw %xmm0,%xmm8
- DB 235,96 ; jmp 3337c <_sk_lerp_u8_sse2_lowp+0xa8>
+ DB 235,96 ; jmp 29a00 <_sk_lerp_u8_sse2_lowp+0xa8>
DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 102,68,15,196,192,2 ; pinsrw $0x2,%eax,%xmm8
@@ -49607,7 +40109,7 @@ _sk_lerp_u8_sse2_lowp LABEL PROC
DB 102,68,15,110,200 ; movd %eax,%xmm9
DB 102,68,15,96,200 ; punpcklbw %xmm0,%xmm9
DB 243,69,15,16,193 ; movss %xmm9,%xmm8
- DB 235,57 ; jmp 3337c <_sk_lerp_u8_sse2_lowp+0xa8>
+ DB 235,57 ; jmp 29a00 <_sk_lerp_u8_sse2_lowp+0xa8>
DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
DB 102,68,15,196,192,6 ; pinsrw $0x6,%eax,%xmm8
@@ -49618,8 +40120,8 @@ _sk_lerp_u8_sse2_lowp LABEL PROC
DB 102,69,15,110,12,16 ; movd (%r8,%rdx,1),%xmm9
DB 102,68,15,96,200 ; punpcklbw %xmm0,%xmm9
DB 242,69,15,16,193 ; movsd %xmm9,%xmm8
- DB 102,68,15,219,5,219,14,0,0 ; pand 0xedb(%rip),%xmm8 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
- DB 102,68,15,111,21,210,14,0,0 ; movdqa 0xed2(%rip),%xmm10 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,219,5,119,10,0,0 ; pand 0xa77(%rip),%xmm8 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ DB 102,68,15,111,21,110,10,0,0 ; movdqa 0xa6e(%rip),%xmm10 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
DB 102,69,15,239,202 ; pxor %xmm10,%xmm9
DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
@@ -49649,9 +40151,9 @@ _sk_lerp_u8_sse2_lowp LABEL PROC
DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
DB 255,224 ; jmpq *%rax
DB 15,31,0 ; nopl (%rax)
- DB 235,254 ; jmp 33418 <_sk_lerp_u8_sse2_lowp+0x144>
+ DB 235,254 ; jmp 29a9c <_sk_lerp_u8_sse2_lowp+0x144>
DB 255 ; (bad)
- DB 255,21,255,255,255,4 ; callq *0x4ffffff(%rip) # 5033420 <_sk_srcover_rgba_8888_sse2_lowp+0x4ffffec>
+ DB 255,21,255,255,255,4 ; callq *0x4ffffff(%rip) # 5029aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x4ffffec>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,84,255,255 ; callq *-0x1(%rdi,%rdi,8)
@@ -49677,26 +40179,26 @@ _sk_srcover_rgba_8888_sse2_lowp LABEL PROC
DB 65,254,202 ; dec %r10b
DB 69,15,182,202 ; movzbl %r10b,%r9d
DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,38 ; ja 3347f <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ DB 119,38 ; ja 29b03 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 76,141,29,67,2,0,0 ; lea 0x243(%rip),%r11 # 336a8 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ DB 76,141,29,67,2,0,0 ; lea 0x243(%rip),%r11 # 29d2c <_sk_srcover_rgba_8888_sse2_lowp+0x274>
DB 75,99,4,139 ; movslq (%r11,%r9,4),%rax
DB 76,1,216 ; add %r11,%rax
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 255,224 ; jmpq *%rax
DB 243,65,15,16,60,144 ; movss (%r8,%rdx,4),%xmm7
DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 334e5 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ DB 235,102 ; jmp 29b69 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 334e5 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ DB 235,87 ; jmp 29b69 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
DB 102,65,15,40,248 ; movapd %xmm8,%xmm7
DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,52 ; jmp 334e5 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ DB 235,52 ; jmp 29b69 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
DB 243,65,15,16,100,144,20 ; movss 0x14(%r8,%rdx,4),%xmm4
@@ -49713,7 +40215,7 @@ _sk_srcover_rgba_8888_sse2_lowp LABEL PROC
DB 102,15,114,244,16 ; pslld $0x10,%xmm4
DB 102,15,114,228,16 ; psrad $0x10,%xmm4
DB 102,15,107,236 ; packssdw %xmm4,%xmm5
- DB 102,68,15,111,37,81,13,0,0 ; movdqa 0xd51(%rip),%xmm12 # 34260 <_sk_srcover_rgba_8888_sse2_lowp+0xe2c>
+ DB 102,68,15,111,37,237,8,0,0 ; movdqa 0x8ed(%rip),%xmm12 # 2a480 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
DB 102,15,111,229 ; movdqa %xmm5,%xmm4
DB 102,65,15,219,228 ; pand %xmm12,%xmm4
DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
@@ -49771,20 +40273,20 @@ _sk_srcover_rgba_8888_sse2_lowp LABEL PROC
DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
DB 102,15,235,194 ; por %xmm2,%xmm0
DB 65,128,250,6 ; cmp $0x6,%r10b
- DB 119,24 ; ja 33647 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- DB 76,141,21,142,0,0,0 ; lea 0x8e(%rip),%r10 # 336c4 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ DB 119,24 ; ja 29ccb <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ DB 76,141,21,142,0,0,0 ; lea 0x8e(%rip),%r10 # 29d48 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
DB 76,1,208 ; add %r10,%rax
DB 255,224 ; jmpq *%rax
DB 102,69,15,126,36,144 ; movd %xmm12,(%r8,%rdx,4)
- DB 235,73 ; jmp 33690 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ DB 235,73 ; jmp 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
DB 243,69,15,127,36,144 ; movdqu %xmm12,(%r8,%rdx,4)
DB 243,65,15,127,68,144,16 ; movdqu %xmm0,0x10(%r8,%rdx,4)
- DB 235,58 ; jmp 33690 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ DB 235,58 ; jmp 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
DB 102,65,15,112,196,78 ; pshufd $0x4e,%xmm12,%xmm0
DB 102,65,15,126,68,144,8 ; movd %xmm0,0x8(%r8,%rdx,4)
DB 102,69,15,214,36,144 ; movq %xmm12,(%r8,%rdx,4)
- DB 235,37 ; jmp 33690 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ DB 235,37 ; jmp 29d14 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
DB 102,65,15,126,76,144,24 ; movd %xmm1,0x18(%r8,%rdx,4)
DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
@@ -49817,7 +40319,7 @@ _sk_srcover_rgba_8888_sse2_lowp LABEL PROC
DB 254 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 123,255 ; jnp 336c5 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ DB 123,255 ; jnp 29d49 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
DB 255 ; (bad)
DB 255,159,255,255,255,146 ; lcall *-0x6d000001(%rdi)
DB 255 ; (bad)
@@ -49883,16 +40385,16 @@ ALIGN 32
DB 0,1 ; add %al,(%rcx)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a033748 <_sk_srcover_rgba_8888_sse2_lowp+0xa000314>
+ DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a029de8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000330>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12033750 <_sk_srcover_rgba_8888_sse2_lowp+0x1200031c>
+ DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12029df0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000338>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a033758 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000324>
+ DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a029df8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000340>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3033760 <_sk_srcover_rgba_8888_sse2_lowp+0x300032c>
+ DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3029e00 <_sk_srcover_rgba_8888_sse2_lowp+0x3000348>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,6 ; incl (%rsi)
@@ -49935,16 +40437,16 @@ ALIGN 32
DB 0,0 ; add %al,(%rax)
DB 1,255 ; add %edi,%edi
DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a0337a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000374>
+ DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a029e48 <_sk_srcover_rgba_8888_sse2_lowp+0xa000390>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 120337b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1200037c>
+ DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12029e50 <_sk_srcover_rgba_8888_sse2_lowp+0x12000398>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a0337b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000384>
+ DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a029e58 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003a0>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 30337c0 <_sk_srcover_rgba_8888_sse2_lowp+0x300038c>
+ DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3029e60 <_sk_srcover_rgba_8888_sse2_lowp+0x30003a8>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,6 ; incl (%rsi)
@@ -49987,16 +40489,16 @@ ALIGN 32
DB 0,0 ; add %al,(%rax)
DB 1,255 ; add %edi,%edi
DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a033808 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003d4>
+ DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a029ea8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003f0>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12033810 <_sk_srcover_rgba_8888_sse2_lowp+0x120003dc>
+ DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12029eb0 <_sk_srcover_rgba_8888_sse2_lowp+0x120003f8>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a033818 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003e4>
+ DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a029eb8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000400>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3033820 <_sk_srcover_rgba_8888_sse2_lowp+0x30003ec>
+ DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3029ec0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000408>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,6 ; incl (%rsi)
@@ -50039,16 +40541,16 @@ ALIGN 32
DB 0,0 ; add %al,(%rax)
DB 1,255 ; add %edi,%edi
DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a033868 <_sk_srcover_rgba_8888_sse2_lowp+0xa000434>
+ DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a029f08 <_sk_srcover_rgba_8888_sse2_lowp+0xa000450>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12033870 <_sk_srcover_rgba_8888_sse2_lowp+0x1200043c>
+ DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12029f10 <_sk_srcover_rgba_8888_sse2_lowp+0x12000458>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a033878 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000444>
+ DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a029f18 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000460>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3033880 <_sk_srcover_rgba_8888_sse2_lowp+0x300044c>
+ DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3029f20 <_sk_srcover_rgba_8888_sse2_lowp+0x3000468>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,6 ; incl (%rsi)
@@ -50091,16 +40593,16 @@ ALIGN 32
DB 0,0 ; add %al,(%rax)
DB 1,255 ; add %edi,%edi
DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a0338c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000494>
+ DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a029f68 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004b0>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 120338d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1200049c>
+ DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12029f70 <_sk_srcover_rgba_8888_sse2_lowp+0x120004b8>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a0338d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004a4>
+ DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a029f78 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004c0>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 30338e0 <_sk_srcover_rgba_8888_sse2_lowp+0x30004ac>
+ DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3029f80 <_sk_srcover_rgba_8888_sse2_lowp+0x30004c8>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,6 ; incl (%rsi)
@@ -50143,16 +40645,16 @@ ALIGN 32
DB 0,0 ; add %al,(%rax)
DB 1,255 ; add %edi,%edi
DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a033928 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004f4>
+ DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a029fc8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000510>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12033930 <_sk_srcover_rgba_8888_sse2_lowp+0x120004fc>
+ DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12029fd0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000518>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a033938 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000504>
+ DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a029fd8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000520>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3033940 <_sk_srcover_rgba_8888_sse2_lowp+0x300050c>
+ DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3029fe0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000528>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,6 ; incl (%rsi)
@@ -50195,16 +40697,16 @@ ALIGN 32
DB 0,0 ; add %al,(%rax)
DB 1,255 ; add %edi,%edi
DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a033988 <_sk_srcover_rgba_8888_sse2_lowp+0xa000554>
+ DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a02a028 <_sk_srcover_rgba_8888_sse2_lowp+0xa000570>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12033990 <_sk_srcover_rgba_8888_sse2_lowp+0x1200055c>
+ DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 1202a030 <_sk_srcover_rgba_8888_sse2_lowp+0x12000578>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a033998 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000564>
+ DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a02a038 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000580>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 30339a0 <_sk_srcover_rgba_8888_sse2_lowp+0x300056c>
+ DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 302a040 <_sk_srcover_rgba_8888_sse2_lowp+0x3000588>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,6 ; incl (%rsi)
@@ -50247,16 +40749,16 @@ ALIGN 32
DB 0,0 ; add %al,(%rax)
DB 1,255 ; add %edi,%edi
DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a0339e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005b4>
+ DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a02a088 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005d0>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 120339f0 <_sk_srcover_rgba_8888_sse2_lowp+0x120005bc>
+ DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 1202a090 <_sk_srcover_rgba_8888_sse2_lowp+0x120005d8>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a0339f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005c4>
+ DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a02a098 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005e0>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3033a00 <_sk_srcover_rgba_8888_sse2_lowp+0x30005cc>
+ DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 302a0a0 <_sk_srcover_rgba_8888_sse2_lowp+0x30005e8>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,6 ; incl (%rsi)
@@ -50423,663 +40925,6 @@ ALIGN 32
DB 0,0 ; add %al,(%rax)
DB 255,0 ; incl (%rax)
DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 3,3 ; add (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,0,0 ; sldt (%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 2,1 ; add (%rcx),%al
- DB 0,3 ; add %al,(%rbx)
- DB 6 ; (bad)
- DB 5,4,7,10,9 ; add $0x90a0704,%eax
- DB 8,11 ; or %cl,(%rbx)
- DB 14 ; (bad)
- DB 13,12,15,2,1 ; or $0x1020f0c,%eax
- DB 0,3 ; add %al,(%rbx)
- DB 6 ; (bad)
- DB 5,4,7,10,9 ; add $0x90a0704,%eax
- DB 8,11 ; or %cl,(%rbx)
- DB 14 ; (bad)
- DB 13,12,15,2,1 ; or $0x1020f0c,%eax
- DB 0,3 ; add %al,(%rbx)
- DB 6 ; (bad)
- DB 5,4,7,10,9 ; add $0x90a0704,%eax
- DB 8,11 ; or %cl,(%rbx)
- DB 14 ; (bad)
- DB 13,12,15,2,1 ; or $0x1020f0c,%eax
- DB 0,3 ; add %al,(%rbx)
- DB 6 ; (bad)
- DB 5,4,7,10,9 ; add $0x90a0704,%eax
- DB 8,11 ; or %cl,(%rbx)
- DB 14 ; (bad)
- DB 13,12,15,2,1 ; or $0x1020f0c,%eax
- DB 0,3 ; add %al,(%rbx)
- DB 6 ; (bad)
- DB 5,4,7,10,9 ; add $0x90a0704,%eax
- DB 8,11 ; or %cl,(%rbx)
- DB 14 ; (bad)
- DB 13,12,15,2,1 ; or $0x1020f0c,%eax
- DB 0,3 ; add %al,(%rbx)
- DB 6 ; (bad)
- DB 5,4,7,10,9 ; add $0x90a0704,%eax
- DB 8,11 ; or %cl,(%rbx)
- DB 14 ; (bad)
- DB 13,12,15,2,1 ; or $0x1020f0c,%eax
- DB 0,3 ; add %al,(%rbx)
- DB 6 ; (bad)
- DB 5,4,7,10,9 ; add $0x90a0704,%eax
- DB 8,11 ; or %cl,(%rbx)
- DB 14 ; (bad)
- DB 13,12,15,2,1 ; or $0x1020f0c,%eax
- DB 0,3 ; add %al,(%rbx)
- DB 6 ; (bad)
- DB 5,4,7,10,9 ; add $0x90a0704,%eax
- DB 8,11 ; or %cl,(%rbx)
- DB 14 ; (bad)
- DB 13,12,15,0,1 ; or $0x1000f0c,%eax
- DB 4,5 ; add $0x5,%al
- DB 8,9 ; or %cl,(%rcx)
- DB 12,13 ; or $0xd,%al
- DB 8,9 ; or %cl,(%rcx)
- DB 12,13 ; or $0xd,%al
- DB 12,13 ; or $0xd,%al
- DB 14 ; (bad)
- DB 15,16,17 ; movups (%rcx),%xmm2
- DB 20,21 ; adc $0x15,%al
- DB 24,25 ; sbb %bl,(%rcx)
- DB 28,29 ; sbb $0x1d,%al
- DB 24,25 ; sbb %bl,(%rcx)
- DB 28,29 ; sbb $0x1d,%al
- DB 28,29 ; sbb $0x1d,%al
- DB 30 ; (bad)
- DB 31 ; (bad)
- DB 3,255 ; add %edi,%edi
- DB 7 ; (bad)
- DB 255,11 ; decl (%rbx)
- DB 255,15 ; decl (%rdi)
- DB 255,11 ; decl (%rbx)
- DB 255,15 ; decl (%rdi)
- DB 255,15 ; decl (%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,19 ; callq *(%rbx)
- DB 255,23 ; callq *(%rdi)
- DB 255,27 ; lcall *(%rbx)
- DB 255,31 ; lcall *(%rdi)
- DB 255,27 ; lcall *(%rbx)
- DB 255,31 ; lcall *(%rdi)
- DB 255,31 ; lcall *(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,3 ; incl (%rbx)
- DB 3,3 ; add (%rbx),%eax
- DB 3,7 ; add (%rdi),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,255 ; (bad)
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,4,4 ; add %al,(%rsp,%rax,1)
- DB 4,4 ; add $0x4,%al
- DB 8,8 ; or %cl,(%rax)
- DB 8,8 ; or %cl,(%rax)
- DB 12,12 ; or $0xc,%al
- DB 12,12 ; or $0xc,%al
- DB 16,16 ; adc %dl,(%rax)
- DB 16,16 ; adc %dl,(%rax)
- DB 20,20 ; adc $0x14,%al
- DB 20,20 ; adc $0x14,%al
- DB 24,24 ; sbb %bl,(%rax)
- DB 24,24 ; sbb %bl,(%rax)
- DB 28,28 ; sbb $0x1c,%al
- DB 28,28 ; sbb $0x1c,%al
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 4,4 ; add $0x4,%al
- DB 4,4 ; add $0x4,%al
- DB 8,8 ; or %cl,(%rax)
- DB 8,8 ; or %cl,(%rax)
- DB 12,12 ; or $0xc,%al
- DB 12,12 ; or $0xc,%al
- DB 16,16 ; adc %dl,(%rax)
- DB 16,16 ; adc %dl,(%rax)
- DB 20,20 ; adc $0x14,%al
- DB 20,20 ; adc $0x14,%al
- DB 24,24 ; sbb %bl,(%rax)
- DB 24,24 ; sbb %bl,(%rax)
- DB 28,28 ; sbb $0x1c,%al
- DB 28,28 ; sbb $0x1c,%al
- DB 3,3 ; add (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 3,3 ; add (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 3,3 ; add (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,255 ; (bad)
- DB 0,127,0 ; add %bh,0x0(%rdi)
- DB 129,128,0,0,0,0,0,0,0,0 ; addl $0x0,0x0(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 3,3 ; add (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,3,3 ; lsl (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,255 ; (bad)
- DB 0,127,0 ; add %bh,0x0(%rdi)
- DB 129,128,0,0,0,0,0,0,0,0 ; addl $0x0,0x0(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
DB 255,0 ; incl (%rax)
DB 255,0 ; incl (%rax)
DB 255,0 ; incl (%rax)
@@ -51180,7 +41025,7 @@ ALIGN 32
DB 0,255 ; add %bh,%bh
DB 0,0 ; add %al,(%rax)
DB 248 ; clc
- DB 224,255 ; loopne 3406b <.const+0x98b>
+ DB 224,255 ; loopne 2a2ab <.const+0x52b>
DB 255,0 ; incl (%rax)
DB 255,0 ; incl (%rax)
DB 255,0 ; incl (%rax)
@@ -51224,14 +41069,14 @@ ALIGN 4
DB 252 ; cld
DB 190,0,0,128,191 ; mov $0xbf800000,%esi
DB 0,0 ; add %al,(%rax)
- DB 224,64 ; loopne 34108 <.literal4+0x64>
+ DB 224,64 ; loopne 2a348 <.literal4+0x64>
DB 154 ; (bad)
DB 153 ; cltd
DB 153 ; cltd
DB 62,61,10,23,63,174 ; ds cmp $0xae3f170a,%eax
- DB 71,225,61 ; rex.RXB loope 34111 <.literal4+0x6d>
+ DB 71,225,61 ; rex.RXB loope 2a351 <.literal4+0x6d>
DB 0,0 ; add %al,(%rax)
- DB 127,67 ; jg 3411b <.literal4+0x77>
+ DB 127,67 ; jg 2a35b <.literal4+0x77>
DB 145 ; xchg %eax,%ecx
DB 131,158,61,92,143,50,63 ; sbbl $0x3f,0x328f5c3d(%rsi)
DB 10,215 ; or %bh,%dl
@@ -51264,7 +41109,7 @@ ALIGN 4
DB 0,0 ; add %al,(%rax)
DB 8,33 ; or %ah,(%rcx)
DB 132,55 ; test %dh,(%rdi)
- DB 224,7 ; loopne 34131 <.literal4+0x8d>
+ DB 224,7 ; loopne 2a371 <.literal4+0x8d>
DB 0,0 ; add %al,(%rax)
DB 33,8 ; and %ecx,(%rax)
DB 2,58 ; add (%rdx),%bh
@@ -51275,8 +41120,8 @@ ALIGN 4
DB 0,0 ; add %al,(%rax)
DB 0,52,255 ; add %dh,(%rdi,%rdi,8)
DB 255 ; (bad)
- DB 127,0 ; jg 34144 <.literal4+0xa0>
- DB 119,115 ; ja 341b9 <.literal4+0x115>
+ DB 127,0 ; jg 2a384 <.literal4+0xa0>
+ DB 119,115 ; ja 2a3f9 <.literal4+0x115>
DB 248 ; clc
DB 194,117,191 ; retq $0xbf75
DB 191,63,249,68,180 ; mov $0xb444f93f,%edi
@@ -51299,12 +41144,12 @@ ALIGN 4
DB 190,80,128,3,62 ; mov $0x3e038050,%esi
DB 31 ; (bad)
DB 215 ; xlat %ds:(%rbx)
- DB 118,63 ; jbe 341cf <.literal4+0x12b>
+ DB 118,63 ; jbe 2a40f <.literal4+0x12b>
DB 246,64,83,63 ; testb $0x3f,0x53(%rax)
DB 0,0 ; add %al,(%rax)
DB 248 ; clc
DB 65,0,0 ; add %al,(%r8)
- DB 124,66 ; jl 341de <.literal4+0x13a>
+ DB 124,66 ; jl 2a41e <.literal4+0x13a>
DB 0,240 ; add %dh,%al
DB 0,0 ; add %al,(%rax)
DB 137,136,136,55,0,15 ; mov %ecx,0xf003788(%rax)
@@ -51314,9 +41159,9 @@ ALIGN 4
DB 137,136,136,59,15,0 ; mov %ecx,0xf3b88(%rax)
DB 0,0 ; add %al,(%rax)
DB 137,136,136,61,0,0 ; mov %ecx,0x3d88(%rax)
- DB 112,65 ; jo 34201 <.literal4+0x15d>
+ DB 112,65 ; jo 2a441 <.literal4+0x15d>
DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 3420b <.literal4+0x167>
+ DB 127,71 ; jg 2a44b <.literal4+0x167>
DB 208 ; (bad)
DB 179,89 ; mov $0x59,%bl
DB 62,89 ; ds pop %rcx
@@ -51343,15 +41188,15 @@ ALIGN 4
DB 0,0 ; add %al,(%rax)
DB 128,0,0 ; addb $0x0,(%rax)
DB 0,191,0,0,192,191 ; add %bh,-0x40400000(%rdi)
- DB 114,28 ; jb 3422a <.literal4+0x186>
+ DB 114,28 ; jb 2a46a <.literal4+0x186>
DB 199 ; (bad)
DB 62,0,0 ; add %al,%ds:(%rax)
DB 192,63,85 ; sarb $0x55,(%rdi)
DB 85 ; push %rbp
DB 149 ; xchg %eax,%ebp
DB 191,57,142,99,61 ; mov $0x3d638e39,%edi
- DB 114,249 ; jb 34217 <.literal4+0x173>
- DB 127,63 ; jg 3425f <_sk_srcover_rgba_8888_sse2_lowp+0xe2b>
+ DB 114,249 ; jb 2a457 <.literal4+0x173>
+ DB 127,63 ; jg 2a49f <_sk_srcover_rgba_8888_sse2_lowp+0x9e7>
DB 3,0 ; add (%rax),%eax
DB 0,0 ; add %al,(%rax)
DB 0,4,0 ; add %al,(%rax,%rax,1)
@@ -51360,27 +41205,9 @@ ALIGN 4
DB 56,255 ; cmp %bh,%bh
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,0 ; jg 34231 <.literal4+0x18d>
+ DB 127,0 ; jg 2a471 <.literal4+0x18d>
DB 0,128,56,0,64,254 ; add %al,-0x1bfffc8(%rax)
- DB 255 ; (bad)
- DB 248 ; clc
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 252 ; cld
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 248 ; clc
- DB 0,7 ; add %al,(%rdi)
- DB 0,7 ; add %al,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 12,0 ; or $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,1 ; incl (%rcx)
- DB 1,1 ; add %eax,(%rcx)
- DB 0,255 ; add %bh,%bh
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
+ DB 255 ; .byte 0xff
ALIGN 16
DB 255,0 ; incl (%rax)
@@ -51481,11 +41308,11 @@ ALIGN 16
DB 0,128,191,0,0,128 ; add %al,-0x7fffff41(%rax)
DB 191,0,0,224,64 ; mov $0x40e00000,%edi
DB 0,0 ; add %al,(%rax)
- DB 224,64 ; loopne 34388 <.literal16+0x128>
+ DB 224,64 ; loopne 2a5a8 <.literal16+0x128>
DB 0,0 ; add %al,(%rax)
- DB 224,64 ; loopne 3438c <.literal16+0x12c>
+ DB 224,64 ; loopne 2a5ac <.literal16+0x12c>
DB 0,0 ; add %al,(%rax)
- DB 224,64 ; loopne 34390 <.literal16+0x130>
+ DB 224,64 ; loopne 2a5b0 <.literal16+0x130>
DB 154 ; (bad)
DB 153 ; cltd
DB 153 ; cltd
@@ -51505,13 +41332,13 @@ ALIGN 16
DB 10,23 ; or (%rdi),%dl
DB 63 ; (bad)
DB 174 ; scas %es:(%rdi),%al
- DB 71,225,61 ; rex.RXB loope 343b1 <.literal16+0x151>
+ DB 71,225,61 ; rex.RXB loope 2a5d1 <.literal16+0x151>
DB 174 ; scas %es:(%rdi),%al
- DB 71,225,61 ; rex.RXB loope 343b5 <.literal16+0x155>
+ DB 71,225,61 ; rex.RXB loope 2a5d5 <.literal16+0x155>
DB 174 ; scas %es:(%rdi),%al
- DB 71,225,61 ; rex.RXB loope 343b9 <.literal16+0x159>
+ DB 71,225,61 ; rex.RXB loope 2a5d9 <.literal16+0x159>
DB 174 ; scas %es:(%rdi),%al
- DB 71,225,61 ; rex.RXB loope 343bd <.literal16+0x15d>
+ DB 71,225,61 ; rex.RXB loope 2a5dd <.literal16+0x15d>
DB 255,0 ; incl (%rax)
DB 0,0 ; add %al,(%rax)
DB 255,0 ; incl (%rax)
@@ -51522,10 +41349,10 @@ ALIGN 16
DB 0,0 ; add %al,(%rax)
DB 1,255 ; add %edi,%edi
DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a034398 <_sk_srcover_rgba_8888_sse2_lowp+0xa000f64>
+ DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a02a5b8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000b00>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,13,255,255,255,2 ; decl 0x2ffffff(%rip) # 30343a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000f6c>
+ DB 255,13,255,255,255,2 ; decl 0x2ffffff(%rip) # 302a5c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b08>
DB 255 ; (bad)
DB 255 ; (bad)
DB 255,6 ; incl (%rsi)
@@ -51540,11 +41367,11 @@ ALIGN 16
DB 255,0 ; incl (%rax)
DB 0,127,67 ; add %bh,0x43(%rdi)
DB 0,0 ; add %al,(%rax)
- DB 127,67 ; jg 343fb <.literal16+0x19b>
+ DB 127,67 ; jg 2a61b <.literal16+0x19b>
DB 0,0 ; add %al,(%rax)
- DB 127,67 ; jg 343ff <.literal16+0x19f>
+ DB 127,67 ; jg 2a61f <.literal16+0x19f>
DB 0,0 ; add %al,(%rax)
- DB 127,67 ; jg 34403 <.literal16+0x1a3>
+ DB 127,67 ; jg 2a623 <.literal16+0x1a3>
DB 145 ; xchg %eax,%ecx
DB 131,158,61,145,131,158,61 ; sbbl $0x3d,-0x617c6ec3(%rsi)
DB 145 ; xchg %eax,%ecx
@@ -51695,13 +41522,13 @@ ALIGN 16
DB 132,55 ; test %dh,(%rdi)
DB 8,33 ; or %ah,(%rcx)
DB 132,55 ; test %dh,(%rdi)
- DB 224,7 ; loopne 34509 <.literal16+0x2a9>
+ DB 224,7 ; loopne 2a729 <.literal16+0x2a9>
DB 0,0 ; add %al,(%rax)
- DB 224,7 ; loopne 3450d <.literal16+0x2ad>
+ DB 224,7 ; loopne 2a72d <.literal16+0x2ad>
DB 0,0 ; add %al,(%rax)
- DB 224,7 ; loopne 34511 <.literal16+0x2b1>
+ DB 224,7 ; loopne 2a731 <.literal16+0x2b1>
DB 0,0 ; add %al,(%rax)
- DB 224,7 ; loopne 34515 <.literal16+0x2b5>
+ DB 224,7 ; loopne 2a735 <.literal16+0x2b5>
DB 0,0 ; add %al,(%rax)
DB 33,8 ; and %ecx,(%rax)
DB 2,58 ; add (%rdx),%bh
@@ -51755,17 +41582,17 @@ ALIGN 16
DB 0,0 ; add %al,(%rax)
DB 52,255 ; xor $0xff,%al
DB 255 ; (bad)
- DB 127,0 ; jg 34584 <.literal16+0x324>
+ DB 127,0 ; jg 2a7a4 <.literal16+0x324>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,0 ; jg 34588 <.literal16+0x328>
+ DB 127,0 ; jg 2a7a8 <.literal16+0x328>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,0 ; jg 3458c <.literal16+0x32c>
+ DB 127,0 ; jg 2a7ac <.literal16+0x32c>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,0 ; jg 34590 <.literal16+0x330>
- DB 119,115 ; ja 34605 <.literal16+0x3a5>
+ DB 127,0 ; jg 2a7b0 <.literal16+0x330>
+ DB 119,115 ; ja 2a825 <.literal16+0x3a5>
DB 248 ; clc
DB 194,119,115 ; retq $0x7377
DB 248 ; clc
@@ -51776,7 +41603,7 @@ ALIGN 16
DB 194,117,191 ; retq $0xbf75
DB 191,63,117,191,191 ; mov $0xbfbf753f,%edi
DB 63 ; (bad)
- DB 117,191 ; jne 34569 <.literal16+0x309>
+ DB 117,191 ; jne 2a789 <.literal16+0x309>
DB 191,63,117,191,191 ; mov $0xbfbf753f,%edi
DB 63 ; (bad)
DB 249 ; stc
@@ -51788,7 +41615,7 @@ ALIGN 16
DB 249 ; stc
DB 68,180,62 ; rex.R mov $0x3e,%spl
DB 163,233,220,63,163,233,220,63,163 ; movabs %eax,0xa33fdce9a33fdce9
- DB 233,220,63,163,233 ; jmpq ffffffffe9a685aa <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a35176>
+ DB 233,220,63,163,233 ; jmpq ffffffffe9a5e7ca <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d12>
DB 220,63 ; fdivrl (%rdi)
DB 81 ; push %rcx
DB 140,242 ; mov %?,%edx
@@ -51878,16 +41705,16 @@ ALIGN 16
DB 128,3,62 ; addb $0x3e,(%rbx)
DB 31 ; (bad)
DB 215 ; xlat %ds:(%rbx)
- DB 118,63 ; jbe 346f3 <.literal16+0x493>
+ DB 118,63 ; jbe 2a913 <.literal16+0x493>
DB 31 ; (bad)
DB 215 ; xlat %ds:(%rbx)
- DB 118,63 ; jbe 346f7 <.literal16+0x497>
+ DB 118,63 ; jbe 2a917 <.literal16+0x497>
DB 31 ; (bad)
DB 215 ; xlat %ds:(%rbx)
- DB 118,63 ; jbe 346fb <.literal16+0x49b>
+ DB 118,63 ; jbe 2a91b <.literal16+0x49b>
DB 31 ; (bad)
DB 215 ; xlat %ds:(%rbx)
- DB 118,63 ; jbe 346ff <.literal16+0x49f>
+ DB 118,63 ; jbe 2a91f <.literal16+0x49f>
DB 246,64,83,63 ; testb $0x3f,0x53(%rax)
DB 246,64,83,63 ; testb $0x3f,0x53(%rax)
DB 246,64,83,63 ; testb $0x3f,0x53(%rax)
@@ -51908,13 +41735,13 @@ ALIGN 16
DB 65,0,0 ; add %al,(%r8)
DB 248 ; clc
DB 65,0,0 ; add %al,(%r8)
- DB 124,66 ; jl 34736 <.literal16+0x4d6>
+ DB 124,66 ; jl 2a956 <.literal16+0x4d6>
DB 0,0 ; add %al,(%rax)
- DB 124,66 ; jl 3473a <.literal16+0x4da>
+ DB 124,66 ; jl 2a95a <.literal16+0x4da>
DB 0,0 ; add %al,(%rax)
- DB 124,66 ; jl 3473e <.literal16+0x4de>
+ DB 124,66 ; jl 2a95e <.literal16+0x4de>
DB 0,0 ; add %al,(%rax)
- DB 124,66 ; jl 34742 <.literal16+0x4e2>
+ DB 124,66 ; jl 2a962 <.literal16+0x4e2>
DB 0,240 ; add %dh,%al
DB 0,0 ; add %al,(%rax)
DB 0,240 ; add %dh,%al
@@ -51960,25 +41787,25 @@ ALIGN 16
DB 136,136,61,137,136,136 ; mov %cl,-0x777776c3(%rax)
DB 61,137,136,136,61 ; cmp $0x3d888889,%eax
DB 0,0 ; add %al,(%rax)
- DB 112,65 ; jo 347c5 <.literal16+0x565>
+ DB 112,65 ; jo 2a9e5 <.literal16+0x565>
DB 0,0 ; add %al,(%rax)
- DB 112,65 ; jo 347c9 <.literal16+0x569>
+ DB 112,65 ; jo 2a9e9 <.literal16+0x569>
DB 0,0 ; add %al,(%rax)
- DB 112,65 ; jo 347cd <.literal16+0x56d>
+ DB 112,65 ; jo 2a9ed <.literal16+0x56d>
DB 0,0 ; add %al,(%rax)
- DB 112,65 ; jo 347d1 <.literal16+0x571>
+ DB 112,65 ; jo 2a9f1 <.literal16+0x571>
DB 0,128,0,0,0,128 ; add %al,-0x80000000(%rax)
DB 0,0 ; add %al,(%rax)
DB 0,128,0,0,0,128 ; add %al,-0x80000000(%rax)
DB 0,0 ; add %al,(%rax)
DB 255 ; (bad)
- DB 127,0 ; jg 347a3 <.literal16+0x543>
+ DB 127,0 ; jg 2a9c3 <.literal16+0x543>
DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 347a7 <.literal16+0x547>
+ DB 127,0 ; jg 2a9c7 <.literal16+0x547>
DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 347ab <.literal16+0x54b>
+ DB 127,0 ; jg 2a9cb <.literal16+0x54b>
DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 347af <.literal16+0x54f>
+ DB 127,0 ; jg 2a9cf <.literal16+0x54f>
DB 0,0 ; add %al,(%rax)
DB 4,0 ; add $0x0,%al
DB 0,0 ; add %al,(%rax)
@@ -52004,13 +41831,13 @@ ALIGN 16
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,255 ; jg 347e8 <.literal16+0x588>
+ DB 127,255 ; jg 2aa08 <.literal16+0x588>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,255 ; jg 347ec <.literal16+0x58c>
+ DB 127,255 ; jg 2aa0c <.literal16+0x58c>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,0 ; jg 347f1 <.literal16+0x591>
+ DB 127,0 ; jg 2aa11 <.literal16+0x591>
DB 0,128,56,0,0,128 ; add %al,-0x7fffffc8(%rax)
DB 56,0 ; cmp %al,(%rax)
DB 0,128,56,0,0,128 ; add %al,-0x7fffffc8(%rax)
@@ -52024,13 +41851,13 @@ ALIGN 16
DB 64,254 ; rex (bad)
DB 255,0 ; incl (%rax)
DB 255 ; (bad)
- DB 127,71 ; jg 3485b <.literal16+0x5fb>
+ DB 127,71 ; jg 2aa7b <.literal16+0x5fb>
DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 3485f <.literal16+0x5ff>
+ DB 127,71 ; jg 2aa7f <.literal16+0x5ff>
DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 34863 <.literal16+0x603>
+ DB 127,71 ; jg 2aa83 <.literal16+0x603>
DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 34867 <.literal16+0x607>
+ DB 127,71 ; jg 2aa87 <.literal16+0x607>
DB 208 ; (bad)
DB 179,89 ; mov $0x59,%bl
DB 62,208 ; ds (bad)
@@ -52060,10 +41887,10 @@ ALIGN 16
DB 61,152,221,147,61 ; cmp $0x3d93dd98,%eax
DB 152 ; cwtl
DB 221,147,61,45,16,17 ; fstl 0x11102d3d(%rbx)
- DB 192,45,16,17,192,45,16 ; shrb $0x10,0x2dc01110(%rip) # 2dc3596a <_sk_srcover_rgba_8888_sse2_lowp+0x2dc02536>
+ DB 192,45,16,17,192,45,16 ; shrb $0x10,0x2dc01110(%rip) # 2dc2bb8a <_sk_srcover_rgba_8888_sse2_lowp+0x2dc020d2>
DB 17,192 ; adc %eax,%eax
DB 45,16,17,192,18 ; sub $0x12c01110,%eax
- DB 120,57 ; js 3489c <.literal16+0x63c>
+ DB 120,57 ; js 2aabc <.literal16+0x63c>
DB 64,18,120,57 ; adc 0x39(%rax),%dil
DB 64,18,120,57 ; adc 0x39(%rax),%dil
DB 64,18,120,57 ; adc 0x39(%rax),%dil
@@ -52128,13 +41955,13 @@ ALIGN 16
DB 192,191,0,0,192,191,0 ; sarb $0x0,-0x40400000(%rdi)
DB 0,192 ; add %al,%al
DB 191,0,0,192,191 ; mov $0xbfc00000,%edi
- DB 114,28 ; jb 3494e <.literal16+0x6ee>
+ DB 114,28 ; jb 2ab6e <.literal16+0x6ee>
DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 34952 <.literal16+0x6f2>
+ DB 62,114,28 ; jb,pt 2ab72 <.literal16+0x6f2>
DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 34956 <.literal16+0x6f6>
+ DB 62,114,28 ; jb,pt 2ab76 <.literal16+0x6f6>
DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 3495a <.literal16+0x6fa>
+ DB 62,114,28 ; jb,pt 2ab7a <.literal16+0x6fa>
DB 199 ; (bad)
DB 62,85 ; ds push %rbp
DB 85 ; push %rbp
@@ -52153,15 +41980,15 @@ ALIGN 16
DB 0,192 ; add %al,%al
DB 63 ; (bad)
DB 57,142,99,61,57,142 ; cmp %ecx,-0x71c6c29d(%rsi)
- DB 99,61,57,142,99,61 ; movslq 0x3d638e39(%rip),%edi # 3d66d7a5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d63a371>
+ DB 99,61,57,142,99,61 ; movslq 0x3d638e39(%rip),%edi # 3d6639c5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f0d>
DB 57,142,99,61,114,249 ; cmp %ecx,-0x68dc29d(%rsi)
- DB 127,63 ; jg 349b3 <.literal16+0x753>
- DB 114,249 ; jb 3496f <.literal16+0x70f>
- DB 127,63 ; jg 349b7 <.literal16+0x757>
- DB 114,249 ; jb 34973 <.literal16+0x713>
- DB 127,63 ; jg 349bb <.literal16+0x75b>
- DB 114,249 ; jb 34977 <.literal16+0x717>
- DB 127,63 ; jg 349bf <.literal16+0x75f>
+ DB 127,63 ; jg 2abd3 <.literal16+0x753>
+ DB 114,249 ; jb 2ab8f <.literal16+0x70f>
+ DB 127,63 ; jg 2abd7 <.literal16+0x757>
+ DB 114,249 ; jb 2ab93 <.literal16+0x713>
+ DB 127,63 ; jg 2abdb <.literal16+0x75b>
+ DB 114,249 ; jb 2ab97 <.literal16+0x717>
+ DB 127,63 ; jg 2abdf <.literal16+0x75f>
DB 3,0 ; add (%rax),%eax
DB 0,0 ; add %al,(%rax)
DB 3,0 ; add (%rax),%eax
@@ -52201,90 +42028,25 @@ ALIGN 16
DB 0,0 ; add %al,(%rax)
DB 0,0 ; add %al,(%rax)
DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 3,3 ; add (%rbx),%eax
- DB 3,3 ; add (%rbx),%eax
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 7 ; (bad)
- DB 11,11 ; or (%rbx),%ecx
- DB 11,11 ; or (%rbx),%ecx
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15 ; (bad)
- DB 15,2,1 ; lar (%rcx),%eax
- DB 0,3 ; add %al,(%rbx)
- DB 6 ; (bad)
- DB 5,4,7,10,9 ; add $0x90a0704,%eax
- DB 8,11 ; or %cl,(%rbx)
- DB 14 ; (bad)
- DB 13,12,15,248,0 ; or $0xf80f0c,%eax
- DB 0,0 ; add %al,(%rax)
- DB 248 ; clc
- DB 0,0 ; add %al,(%rax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 252 ; cld
- DB 0,0 ; add %al,(%rax)
- DB 0,252 ; add %bh,%ah
- DB 0,0 ; add %al,(%rax)
- DB 0,252 ; add %bh,%ah
- DB 0,0 ; add %al,(%rax)
- DB 0,252 ; add %bh,%ah
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 248 ; clc
- DB 0,0 ; add %al,(%rax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%rax)
- DB 1,4,5,8,9,12,13 ; add %eax,0xd0c0908(,%rax,1)
+ DB 254,1 ; incb (%rcx)
+ DB 254,1 ; incb (%rcx)
+ DB 254,1 ; incb (%rcx)
+ DB 254,1 ; incb (%rcx)
+ DB 254,1 ; incb (%rcx)
+ DB 254,1 ; incb (%rcx)
+ DB 254,1 ; incb (%rcx)
+ DB 254,1 ; incb (%rcx)
+ DB 0,128,0,128,0,128 ; add %al,-0x7fff8000(%rax)
+ DB 0,128,0,128,0,128 ; add %al,-0x7fff8000(%rax)
+ DB 0,128,0,128,0,1 ; add %al,0x1008000(%rax)
+ DB 4,5 ; add $0x5,%al
+ DB 8,9 ; or %cl,(%rcx)
+ DB 12,13 ; or $0xd,%al
DB 8,9 ; or %cl,(%rcx)
DB 12,13 ; or $0xd,%al
DB 12,13 ; or $0xd,%al
DB 14 ; (bad)
- DB 15,7 ; sysret
- DB 0,7 ; add %al,(%rdi)
- DB 0,7 ; add %al,(%rdi)
- DB 0,7 ; add %al,(%rdi)
- DB 0,7 ; add %al,(%rdi)
- DB 0,7 ; add %al,(%rdi)
- DB 0,7 ; add %al,(%rdi)
- DB 0,7 ; add %al,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 12,0 ; or $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 12,0 ; or $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 12,0 ; or $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 12,0 ; or $0x0,%al
- DB 0,255 ; add %bh,%bh
- DB 255 ; (bad)
- DB 255,8 ; decl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,12,255 ; decl (%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 3,255 ; add %edi,%edi
+ DB 15,3,255 ; lsl %di,%edi
DB 7 ; (bad)
DB 255,11 ; decl (%rbx)
DB 255,15 ; decl (%rdi)
@@ -52293,66 +42055,8 @@ ALIGN 16
DB 255,15 ; decl (%rdi)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 255,1 ; incl (%rcx)
- DB 1,1 ; add %eax,(%rcx)
- DB 0,1 ; add %al,(%rcx)
- DB 1,1 ; add %eax,(%rcx)
- DB 0,1 ; add %al,(%rcx)
- DB 1,1 ; add %eax,(%rcx)
- DB 0,1 ; add %al,(%rcx)
- DB 1,1 ; add %eax,(%rcx)
- DB 0,8 ; add %cl,(%rax)
- DB 8,8 ; or %cl,(%rax)
- DB 8,10 ; or %cl,(%rdx)
- DB 10,10 ; or (%rdx),%cl
- DB 10,12,12 ; or (%rsp,%rcx,1),%cl
- DB 12,12 ; or $0xc,%al
- DB 14 ; (bad)
- DB 14 ; (bad)
- DB 14 ; (bad)
- DB 14 ; (bad)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 2,2 ; add (%rdx),%al
- DB 2,2 ; add (%rdx),%al
- DB 4,4 ; add $0x4,%al
- DB 4,4 ; add $0x4,%al
- DB 6 ; (bad)
- DB 6 ; (bad)
- DB 6 ; (bad)
- DB 6 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 127,0 ; jg 34ab2 <.literal16+0x852>
- DB 127,0 ; jg 34ab4 <.literal16+0x854>
- DB 127,0 ; jg 34ab6 <.literal16+0x856>
- DB 127,0 ; jg 34ab8 <.literal16+0x858>
- DB 127,0 ; jg 34aba <.literal16+0x85a>
- DB 127,0 ; jg 34abc <.literal16+0x85c>
- DB 127,0 ; jg 34abe <.literal16+0x85e>
- DB 127,0 ; jg 34ac0 <.literal16+0x860>
- DB 129,128,129,128,129,128,129,128,129,128; addl $0x80818081,-0x7f7e7f7f(%rax)
- DB 129,128,129,128,129,128,254,1,254,1 ; addl $0x1fe01fe,-0x7f7e7f7f(%rax)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 0,128,0,128,0,128 ; add %al,-0x7fff8000(%rax)
- DB 0,128,0,128,0,128 ; add %al,-0x7fff8000(%rax)
- DB 0,128,0,128,2,3 ; add %al,0x3028000(%rax)
- DB 6 ; (bad)
+ DB 255,2 ; incl (%rdx)
+ DB 3,6 ; add (%rsi),%eax
DB 7 ; (bad)
DB 10,11 ; or (%rbx),%cl
DB 14 ; (bad)
@@ -52394,14 +42098,14 @@ ALIGN 16
DB 0,248 ; add %bh,%al
DB 0,248 ; add %bh,%al
DB 0,248 ; add %bh,%al
- DB 224,255 ; loopne 34b41 <.literal16+0x8e1>
- DB 224,255 ; loopne 34b43 <.literal16+0x8e3>
- DB 224,255 ; loopne 34b45 <.literal16+0x8e5>
- DB 224,255 ; loopne 34b47 <.literal16+0x8e7>
- DB 224,255 ; loopne 34b49 <.literal16+0x8e9>
- DB 224,255 ; loopne 34b4b <.literal16+0x8eb>
- DB 224,255 ; loopne 34b4d <.literal16+0x8ed>
- DB 224,255 ; loopne 34b4f <.literal16+0x8ef>
+ DB 224,255 ; loopne 2ac71 <.literal16+0x7f1>
+ DB 224,255 ; loopne 2ac73 <.literal16+0x7f3>
+ DB 224,255 ; loopne 2ac75 <.literal16+0x7f5>
+ DB 224,255 ; loopne 2ac77 <.literal16+0x7f7>
+ DB 224,255 ; loopne 2ac79 <.literal16+0x7f9>
+ DB 224,255 ; loopne 2ac7b <.literal16+0x7fb>
+ DB 224,255 ; loopne 2ac7d <.literal16+0x7fd>
+ DB 224,255 ; loopne 2ac7f <.literal16+0x7ff>
DB 254,0 ; incb (%rax)
DB 254,0 ; incb (%rax)
DB 254,0 ; incb (%rax)
@@ -52425,9 +42129,9 @@ ALIGN 8
DB 4,0 ; add $0x0,%al
DB 0,0 ; add %al,(%rax)
DB 255 ; (bad)
- DB 127,0 ; jg 34b7b <.literal8+0x1b>
+ DB 127,0 ; jg 2acab <.literal8+0x1b>
DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 34b7f <.literal8+0x1f>
+ DB 127,0 ; jg 2acaf <.literal8+0x1f>
DB 0,0 ; add %al,(%rax)
DB 128,0,0 ; addb $0x0,(%rax)
DB 0 ; .byte 0x0
@@ -52516,11 +42220,11 @@ _sk_seed_shader_sse2 LABEL PROC
DB 102,15,110,2 ; movd (%edx),%xmm0
DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,88,128,157,0,1,0 ; addps 0x1009d(%eax),%xmm0
+ DB 15,88,128,141,196,0,0 ; addps 0xc48d(%eax),%xmm0
DB 102,15,110,74,4 ; movd 0x4(%edx),%xmm1
DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,88,136,173,0,1,0 ; addps 0x100ad(%eax),%xmm1
+ DB 15,88,136,157,196,0,0 ; addps 0xc49d(%eax),%xmm1
DB 141,113,4 ; lea 0x4(%ecx),%esi
DB 15,87,210 ; xorps %xmm2,%xmm2
DB 15,41,82,64 ; movaps %xmm2,0x40(%edx)
@@ -52528,7 +42232,7 @@ _sk_seed_shader_sse2 LABEL PROC
DB 15,41,82,32 ; movaps %xmm2,0x20(%edx)
DB 15,41,82,16 ; movaps %xmm2,0x10(%edx)
DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,144,189,0,1,0 ; movaps 0x100bd(%eax),%xmm2
+ DB 15,40,144,173,196,0,0 ; movaps 0xc4ad(%eax),%xmm2
DB 15,87,219 ; xorps %xmm3,%xmm3
DB 86 ; push %esi
DB 82 ; push %edx
@@ -52553,15 +42257,15 @@ _sk_dither_sse2 LABEL PROC
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 102,15,110,32 ; movd (%eax),%xmm4
DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 102,15,254,161,88,0,1,0 ; paddd 0x10058(%ecx),%xmm4
+ DB 102,15,254,161,72,196,0,0 ; paddd 0xc448(%ecx),%xmm4
DB 102,15,110,104,4 ; movd 0x4(%eax),%xmm5
DB 102,15,112,253,0 ; pshufd $0x0,%xmm5,%xmm7
DB 102,15,239,252 ; pxor %xmm4,%xmm7
- DB 102,15,111,177,104,0,1,0 ; movdqa 0x10068(%ecx),%xmm6
+ DB 102,15,111,177,88,196,0,0 ; movdqa 0xc458(%ecx),%xmm6
DB 102,15,111,207 ; movdqa %xmm7,%xmm1
DB 102,15,219,206 ; pand %xmm6,%xmm1
DB 102,15,114,241,5 ; pslld $0x5,%xmm1
- DB 102,15,111,129,136,0,1,0 ; movdqa 0x10088(%ecx),%xmm0
+ DB 102,15,111,129,120,196,0,0 ; movdqa 0xc478(%ecx),%xmm0
DB 102,15,111,239 ; movdqa %xmm7,%xmm5
DB 102,15,219,232 ; pand %xmm0,%xmm5
DB 102,15,114,245,2 ; pslld $0x2,%xmm5
@@ -52571,7 +42275,7 @@ _sk_dither_sse2 LABEL PROC
DB 102,15,219,196 ; pand %xmm4,%xmm0
DB 102,15,254,192 ; paddd %xmm0,%xmm0
DB 102,15,235,198 ; por %xmm6,%xmm0
- DB 102,15,111,137,120,0,1,0 ; movdqa 0x10078(%ecx),%xmm1
+ DB 102,15,111,137,104,196,0,0 ; movdqa 0xc468(%ecx),%xmm1
DB 102,15,219,249 ; pand %xmm1,%xmm7
DB 102,15,219,225 ; pand %xmm1,%xmm4
DB 102,15,114,212,2 ; psrld $0x2,%xmm4
@@ -52582,8 +42286,8 @@ _sk_dither_sse2 LABEL PROC
DB 102,15,114,215,1 ; psrld $0x1,%xmm7
DB 102,15,235,231 ; por %xmm7,%xmm4
DB 15,91,196 ; cvtdq2ps %xmm4,%xmm0
- DB 15,89,129,152,0,1,0 ; mulps 0x10098(%ecx),%xmm0
- DB 15,88,129,168,0,1,0 ; addps 0x100a8(%ecx),%xmm0
+ DB 15,89,129,136,196,0,0 ; mulps 0xc488(%ecx),%xmm0
+ DB 15,88,129,152,196,0,0 ; addps 0xc498(%ecx),%xmm0
DB 243,15,16,14 ; movss (%esi),%xmm1
DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
DB 15,89,200 ; mulps %xmm0,%xmm1
@@ -52647,7 +42351,7 @@ _sk_black_color_sse2 LABEL PROC
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 141,81,4 ; lea 0x4(%ecx),%edx
DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,152,12,255,0,0 ; movaps 0xff0c(%eax),%xmm3
+ DB 15,40,152,252,194,0,0 ; movaps 0xc2fc(%eax),%xmm3
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,87,201 ; xorps %xmm1,%xmm1
DB 15,87,210 ; xorps %xmm2,%xmm2
@@ -52668,7 +42372,7 @@ _sk_white_color_sse2 LABEL PROC
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 141,81,4 ; lea 0x4(%ecx),%edx
DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,128,220,254,0,0 ; movaps 0xfedc(%eax),%xmm0
+ DB 15,40,128,204,194,0,0 ; movaps 0xc2cc(%eax),%xmm0
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,40,216 ; movaps %xmm0,%xmm3
@@ -52750,7 +42454,7 @@ _sk_srcatop_sse2 LABEL PROC
DB 139,77,8 ; mov 0x8(%ebp),%ecx
DB 15,40,97,64 ; movaps 0x40(%ecx),%xmm4
DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,170,45,254,0,0 ; movaps 0xfe2d(%edx),%xmm5
+ DB 15,40,170,29,194,0,0 ; movaps 0xc21d(%edx),%xmm5
DB 15,92,235 ; subps %xmm3,%xmm5
DB 15,40,113,16 ; movaps 0x10(%ecx),%xmm6
DB 15,89,245 ; mulps %xmm5,%xmm6
@@ -52787,7 +42491,7 @@ _sk_dstatop_sse2 LABEL PROC
DB 15,40,105,64 ; movaps 0x40(%ecx),%xmm5
DB 15,40,113,16 ; movaps 0x10(%ecx),%xmm6
DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,40,162,206,253,0,0 ; movaps 0xfdce(%edx),%xmm4
+ DB 15,40,162,190,193,0,0 ; movaps 0xc1be(%edx),%xmm4
DB 15,92,229 ; subps %xmm5,%xmm4
DB 15,89,196 ; mulps %xmm4,%xmm0
DB 15,88,198 ; addps %xmm6,%xmm0
@@ -52865,7 +42569,7 @@ _sk_srcout_sse2 LABEL PROC
DB 88 ; pop %eax
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,40,160,13,253,0,0 ; movaps 0xfd0d(%eax),%xmm4
+ DB 15,40,160,253,192,0,0 ; movaps 0xc0fd(%eax),%xmm4
DB 15,92,98,64 ; subps 0x40(%edx),%xmm4
DB 15,89,196 ; mulps %xmm4,%xmm0
DB 15,89,204 ; mulps %xmm4,%xmm1
@@ -52889,7 +42593,7 @@ _sk_dstout_sse2 LABEL PROC
DB 88 ; pop %eax
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,40,160,213,252,0,0 ; movaps 0xfcd5(%eax),%xmm4
+ DB 15,40,160,197,192,0,0 ; movaps 0xc0c5(%eax),%xmm4
DB 15,92,227 ; subps %xmm3,%xmm4
DB 15,40,66,16 ; movaps 0x10(%edx),%xmm0
DB 15,89,196 ; mulps %xmm4,%xmm0
@@ -52917,7 +42621,7 @@ _sk_srcover_sse2 LABEL PROC
DB 88 ; pop %eax
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,40,160,142,252,0,0 ; movaps 0xfc8e(%eax),%xmm4
+ DB 15,40,160,126,192,0,0 ; movaps 0xc07e(%eax),%xmm4
DB 15,92,227 ; subps %xmm3,%xmm4
DB 15,40,106,16 ; movaps 0x10(%edx),%xmm5
DB 15,89,236 ; mulps %xmm4,%xmm5
@@ -52949,7 +42653,7 @@ _sk_dstover_sse2 LABEL PROC
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 139,85,8 ; mov 0x8(%ebp),%edx
DB 15,40,106,64 ; movaps 0x40(%edx),%xmm5
- DB 15,40,160,62,252,0,0 ; movaps 0xfc3e(%eax),%xmm4
+ DB 15,40,160,46,192,0,0 ; movaps 0xc02e(%eax),%xmm4
DB 15,92,229 ; subps %xmm5,%xmm4
DB 15,89,196 ; mulps %xmm4,%xmm0
DB 15,88,66,16 ; addps 0x10(%edx),%xmm0
@@ -53001,7 +42705,7 @@ _sk_multiply_sse2 LABEL PROC
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 15,40,80,64 ; movaps 0x40(%eax),%xmm2
DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,40,129,191,251,0,0 ; movaps 0xfbbf(%ecx),%xmm0
+ DB 15,40,129,175,191,0,0 ; movaps 0xbfaf(%ecx),%xmm0
DB 15,40,240 ; movaps %xmm0,%xmm6
DB 15,92,242 ; subps %xmm2,%xmm6
DB 15,40,254 ; movaps %xmm6,%xmm7
@@ -53059,7 +42763,7 @@ _sk_plus__sse2 LABEL PROC
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 139,85,8 ; mov 0x8(%ebp),%edx
DB 15,88,66,16 ; addps 0x10(%edx),%xmm0
- DB 15,40,160,25,251,0,0 ; movaps 0xfb19(%eax),%xmm4
+ DB 15,40,160,9,191,0,0 ; movaps 0xbf09(%eax),%xmm4
DB 15,93,196 ; minps %xmm4,%xmm0
DB 15,88,74,32 ; addps 0x20(%edx),%xmm1
DB 15,93,204 ; minps %xmm4,%xmm1
@@ -53127,7 +42831,7 @@ _sk_xor__sse2 LABEL PROC
DB 139,69,12 ; mov 0xc(%ebp),%eax
DB 139,77,8 ; mov 0x8(%ebp),%ecx
DB 15,40,105,64 ; movaps 0x40(%ecx),%xmm5
- DB 15,40,154,107,250,0,0 ; movaps 0xfa6b(%edx),%xmm3
+ DB 15,40,154,91,190,0,0 ; movaps 0xbe5b(%edx),%xmm3
DB 15,40,243 ; movaps %xmm3,%xmm6
DB 15,92,245 ; subps %xmm5,%xmm6
DB 15,89,198 ; mulps %xmm6,%xmm0
@@ -53187,7 +42891,7 @@ _sk_darken_sse2 LABEL PROC
DB 15,89,203 ; mulps %xmm3,%xmm1
DB 15,95,209 ; maxps %xmm1,%xmm2
DB 15,92,234 ; subps %xmm2,%xmm5
- DB 15,40,138,3,250,0,0 ; movaps 0xfa03(%edx),%xmm1
+ DB 15,40,138,243,189,0,0 ; movaps 0xbdf3(%edx),%xmm1
DB 15,92,203 ; subps %xmm3,%xmm1
DB 15,89,206 ; mulps %xmm6,%xmm1
DB 15,88,217 ; addps %xmm1,%xmm3
@@ -53234,7 +42938,7 @@ _sk_lighten_sse2 LABEL PROC
DB 15,89,203 ; mulps %xmm3,%xmm1
DB 15,93,209 ; minps %xmm1,%xmm2
DB 15,92,234 ; subps %xmm2,%xmm5
- DB 15,40,138,131,249,0,0 ; movaps 0xf983(%edx),%xmm1
+ DB 15,40,138,115,189,0,0 ; movaps 0xbd73(%edx),%xmm1
DB 15,92,203 ; subps %xmm3,%xmm1
DB 15,89,206 ; mulps %xmm6,%xmm1
DB 15,88,217 ; addps %xmm1,%xmm3
@@ -53285,7 +42989,7 @@ _sk_difference_sse2 LABEL PROC
DB 15,93,214 ; minps %xmm6,%xmm2
DB 15,88,210 ; addps %xmm2,%xmm2
DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,40,146,0,249,0,0 ; movaps 0xf900(%edx),%xmm2
+ DB 15,40,146,240,188,0,0 ; movaps 0xbcf0(%edx),%xmm2
DB 15,92,211 ; subps %xmm3,%xmm2
DB 15,89,213 ; mulps %xmm5,%xmm2
DB 15,88,218 ; addps %xmm2,%xmm3
@@ -53327,7 +43031,7 @@ _sk_exclusion_sse2 LABEL PROC
DB 15,89,202 ; mulps %xmm2,%xmm1
DB 15,88,201 ; addps %xmm1,%xmm1
DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,40,138,122,248,0,0 ; movaps 0xf87a(%edx),%xmm1
+ DB 15,40,138,106,188,0,0 ; movaps 0xbc6a(%edx),%xmm1
DB 15,92,203 ; subps %xmm3,%xmm1
DB 15,89,73,64 ; mulps 0x40(%ecx),%xmm1
DB 15,88,217 ; addps %xmm1,%xmm3
@@ -53366,7 +43070,7 @@ _sk_colorburn_sse2 LABEL PROC
DB 15,93,198 ; minps %xmm6,%xmm0
DB 15,40,233 ; movaps %xmm1,%xmm5
DB 15,92,232 ; subps %xmm0,%xmm5
- DB 15,40,177,251,247,0,0 ; movaps 0xf7fb(%ecx),%xmm6
+ DB 15,40,177,235,187,0,0 ; movaps 0xbbeb(%ecx),%xmm6
DB 15,40,198 ; movaps %xmm6,%xmm0
DB 15,92,193 ; subps %xmm1,%xmm0
DB 15,41,69,200 ; movaps %xmm0,-0x38(%ebp)
@@ -53481,7 +43185,7 @@ _sk_colordodge_sse2 LABEL PROC
DB 89 ; pop %ecx
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 15,40,72,16 ; movaps 0x10(%eax),%xmm1
- DB 15,40,145,114,246,0,0 ; movaps 0xf672(%ecx),%xmm2
+ DB 15,40,145,98,186,0,0 ; movaps 0xba62(%ecx),%xmm2
DB 15,40,226 ; movaps %xmm2,%xmm4
DB 15,92,214 ; subps %xmm6,%xmm2
DB 15,40,250 ; movaps %xmm2,%xmm7
@@ -53596,7 +43300,7 @@ _sk_hardlight_sse2 LABEL PROC
DB 89 ; pop %ecx
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 15,40,72,64 ; movaps 0x40(%eax),%xmm1
- DB 15,40,145,17,245,0,0 ; movaps 0xf511(%ecx),%xmm2
+ DB 15,40,145,1,185,0,0 ; movaps 0xb901(%ecx),%xmm2
DB 15,40,234 ; movaps %xmm2,%xmm5
DB 15,92,233 ; subps %xmm1,%xmm5
DB 15,40,225 ; movaps %xmm1,%xmm4
@@ -53704,7 +43408,7 @@ _sk_overlay_sse2 LABEL PROC
DB 89 ; pop %ecx
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 15,40,80,64 ; movaps 0x40(%eax),%xmm2
- DB 15,40,161,198,243,0,0 ; movaps 0xf3c6(%ecx),%xmm4
+ DB 15,40,161,182,183,0,0 ; movaps 0xb7b6(%ecx),%xmm4
DB 15,40,244 ; movaps %xmm4,%xmm6
DB 15,92,242 ; subps %xmm2,%xmm6
DB 15,40,206 ; movaps %xmm6,%xmm1
@@ -53830,17 +43534,17 @@ _sk_softlight_sse2 LABEL PROC
DB 232,0,0,0,0 ; call f2a <_sk_softlight_sse2+0x52>
DB 89 ; pop %ecx
DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,137,166,242,0,0 ; movaps 0xf2a6(%ecx),%xmm1
+ DB 15,40,137,150,182,0,0 ; movaps 0xb696(%ecx),%xmm1
DB 15,41,141,104,255,255,255 ; movaps %xmm1,-0x98(%ebp)
DB 15,88,193 ; addps %xmm1,%xmm0
DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,40,185,54,242,0,0 ; movaps 0xf236(%ecx),%xmm7
+ DB 15,40,185,38,182,0,0 ; movaps 0xb626(%ecx),%xmm7
DB 15,41,125,232 ; movaps %xmm7,-0x18(%ebp)
DB 15,92,250 ; subps %xmm2,%xmm7
DB 15,82,242 ; rsqrtps %xmm2,%xmm6
DB 15,83,206 ; rcpps %xmm6,%xmm1
DB 15,92,202 ; subps %xmm2,%xmm1
- DB 15,40,161,182,242,0,0 ; movaps 0xf2b6(%ecx),%xmm4
+ DB 15,40,161,166,182,0,0 ; movaps 0xb6a6(%ecx),%xmm4
DB 15,41,101,152 ; movaps %xmm4,-0x68(%ebp)
DB 15,89,212 ; mulps %xmm4,%xmm2
DB 15,88,208 ; addps %xmm0,%xmm2
@@ -54044,7 +43748,7 @@ _sk_hue_sse2 LABEL PROC
DB 15,40,226 ; movaps %xmm2,%xmm4
DB 15,40,72,64 ; movaps 0x40(%eax),%xmm1
DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 15,40,169,117,239,0,0 ; movaps 0xef75(%ecx),%xmm5
+ DB 15,40,169,101,179,0,0 ; movaps 0xb365(%ecx),%xmm5
DB 15,92,233 ; subps %xmm1,%xmm5
DB 15,89,197 ; mulps %xmm5,%xmm0
DB 15,41,133,72,255,255,255 ; movaps %xmm0,-0xb8(%ebp)
@@ -54077,17 +43781,17 @@ _sk_hue_sse2 LABEL PROC
DB 15,89,233 ; mulps %xmm1,%xmm5
DB 15,41,173,120,255,255,255 ; movaps %xmm5,-0x88(%ebp)
DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,153,5,240,0,0 ; movaps 0xf005(%ecx),%xmm3
+ DB 15,40,153,245,179,0,0 ; movaps 0xb3f5(%ecx),%xmm3
DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
DB 15,40,117,152 ; movaps -0x68(%ebp),%xmm6
DB 15,40,206 ; movaps %xmm6,%xmm1
DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,40,153,21,240,0,0 ; movaps 0xf015(%ecx),%xmm3
+ DB 15,40,153,5,180,0,0 ; movaps 0xb405(%ecx),%xmm3
DB 15,40,109,136 ; movaps -0x78(%ebp),%xmm5
DB 15,40,253 ; movaps %xmm5,%xmm7
DB 15,89,251 ; mulps %xmm3,%xmm7
DB 15,88,249 ; addps %xmm1,%xmm7
- DB 15,40,137,117,239,0,0 ; movaps 0xef75(%ecx),%xmm1
+ DB 15,40,137,101,179,0,0 ; movaps 0xb365(%ecx),%xmm1
DB 15,92,77,184 ; subps -0x48(%ebp),%xmm1
DB 15,89,241 ; mulps %xmm1,%xmm6
DB 15,41,117,152 ; movaps %xmm6,-0x68(%ebp)
@@ -54097,7 +43801,7 @@ _sk_hue_sse2 LABEL PROC
DB 15,40,77,200 ; movaps -0x38(%ebp),%xmm1
DB 15,89,241 ; mulps %xmm1,%xmm6
DB 15,41,117,168 ; movaps %xmm6,-0x58(%ebp)
- DB 15,40,169,37,240,0,0 ; movaps 0xf025(%ecx),%xmm5
+ DB 15,40,169,21,180,0,0 ; movaps 0xb415(%ecx),%xmm5
DB 15,89,205 ; mulps %xmm5,%xmm1
DB 15,88,207 ; addps %xmm7,%xmm1
DB 15,94,212 ; divps %xmm4,%xmm2
@@ -54288,17 +43992,17 @@ _sk_saturation_sse2 LABEL PROC
DB 15,89,253 ; mulps %xmm5,%xmm7
DB 232,0,0,0,0 ; call 153f <_sk_saturation_sse2+0xb0>
DB 89 ; pop %ecx
- DB 15,40,153,177,236,0,0 ; movaps 0xecb1(%ecx),%xmm3
+ DB 15,40,153,161,176,0,0 ; movaps 0xb0a1(%ecx),%xmm3
DB 15,41,157,88,255,255,255 ; movaps %xmm3,-0xa8(%ebp)
DB 15,40,77,184 ; movaps -0x48(%ebp),%xmm1
DB 15,40,193 ; movaps %xmm1,%xmm0
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,40,153,193,236,0,0 ; movaps 0xecc1(%ecx),%xmm3
+ DB 15,40,153,177,176,0,0 ; movaps 0xb0b1(%ecx),%xmm3
DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
DB 15,40,238 ; movaps %xmm6,%xmm5
DB 15,89,235 ; mulps %xmm3,%xmm5
DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,40,129,33,236,0,0 ; movaps 0xec21(%ecx),%xmm0
+ DB 15,40,129,17,176,0,0 ; movaps 0xb011(%ecx),%xmm0
DB 15,41,133,104,255,255,255 ; movaps %xmm0,-0x98(%ebp)
DB 15,92,69,216 ; subps -0x28(%ebp),%xmm0
DB 15,89,200 ; mulps %xmm0,%xmm1
@@ -54310,7 +44014,7 @@ _sk_saturation_sse2 LABEL PROC
DB 15,89,200 ; mulps %xmm0,%xmm1
DB 15,41,141,120,255,255,255 ; movaps %xmm1,-0x88(%ebp)
DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,129,209,236,0,0 ; movaps 0xecd1(%ecx),%xmm0
+ DB 15,40,129,193,176,0,0 ; movaps 0xb0c1(%ecx),%xmm0
DB 15,89,200 ; mulps %xmm0,%xmm1
DB 15,88,205 ; addps %xmm5,%xmm1
DB 15,40,109,168 ; movaps -0x58(%ebp),%xmm5
@@ -54467,16 +44171,16 @@ _sk_color_sse2 LABEL PROC
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 15,40,80,16 ; movaps 0x10(%eax),%xmm2
DB 15,40,72,32 ; movaps 0x20(%eax),%xmm1
- DB 15,40,177,86,234,0,0 ; movaps 0xea56(%ecx),%xmm6
+ DB 15,40,177,70,174,0,0 ; movaps 0xae46(%ecx),%xmm6
DB 15,41,117,216 ; movaps %xmm6,-0x28(%ebp)
DB 15,40,194 ; movaps %xmm2,%xmm0
DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,40,153,102,234,0,0 ; movaps 0xea66(%ecx),%xmm3
+ DB 15,40,153,86,174,0,0 ; movaps 0xae56(%ecx),%xmm3
DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
DB 15,40,241 ; movaps %xmm1,%xmm6
DB 15,89,243 ; mulps %xmm3,%xmm6
DB 15,88,240 ; addps %xmm0,%xmm6
- DB 15,40,129,198,233,0,0 ; movaps 0xe9c6(%ecx),%xmm0
+ DB 15,40,129,182,173,0,0 ; movaps 0xadb6(%ecx),%xmm0
DB 15,41,69,168 ; movaps %xmm0,-0x58(%ebp)
DB 15,92,69,200 ; subps -0x38(%ebp),%xmm0
DB 15,89,208 ; mulps %xmm0,%xmm2
@@ -54486,7 +44190,7 @@ _sk_color_sse2 LABEL PROC
DB 15,40,80,48 ; movaps 0x30(%eax),%xmm2
DB 15,89,194 ; mulps %xmm2,%xmm0
DB 15,41,133,72,255,255,255 ; movaps %xmm0,-0xb8(%ebp)
- DB 15,40,137,118,234,0,0 ; movaps 0xea76(%ecx),%xmm1
+ DB 15,40,137,102,174,0,0 ; movaps 0xae66(%ecx),%xmm1
DB 15,89,209 ; mulps %xmm1,%xmm2
DB 15,88,214 ; addps %xmm6,%xmm2
DB 15,40,88,64 ; movaps 0x40(%eax),%xmm3
@@ -54643,18 +44347,18 @@ _sk_luminosity_sse2 LABEL PROC
DB 232,0,0,0,0 ; call 19fd <_sk_luminosity_sse2+0x11>
DB 89 ; pop %ecx
DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,161,243,231,0,0 ; movaps 0xe7f3(%ecx),%xmm4
+ DB 15,40,161,227,171,0,0 ; movaps 0xabe3(%ecx),%xmm4
DB 15,41,101,232 ; movaps %xmm4,-0x18(%ebp)
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,40,161,3,232,0,0 ; movaps 0xe803(%ecx),%xmm4
+ DB 15,40,161,243,171,0,0 ; movaps 0xabf3(%ecx),%xmm4
DB 15,41,101,216 ; movaps %xmm4,-0x28(%ebp)
DB 15,40,233 ; movaps %xmm1,%xmm5
DB 15,89,236 ; mulps %xmm4,%xmm5
DB 15,88,234 ; addps %xmm2,%xmm5
DB 15,40,80,64 ; movaps 0x40(%eax),%xmm2
DB 15,41,85,184 ; movaps %xmm2,-0x48(%ebp)
- DB 15,40,161,99,231,0,0 ; movaps 0xe763(%ecx),%xmm4
+ DB 15,40,161,83,171,0,0 ; movaps 0xab53(%ecx),%xmm4
DB 15,40,252 ; movaps %xmm4,%xmm7
DB 15,92,250 ; subps %xmm2,%xmm7
DB 15,89,199 ; mulps %xmm7,%xmm0
@@ -54664,7 +44368,7 @@ _sk_luminosity_sse2 LABEL PROC
DB 15,89,254 ; mulps %xmm6,%xmm7
DB 15,41,189,104,255,255,255 ; movaps %xmm7,-0x98(%ebp)
DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,137,19,232,0,0 ; movaps 0xe813(%ecx),%xmm1
+ DB 15,40,137,3,172,0,0 ; movaps 0xac03(%ecx),%xmm1
DB 15,89,209 ; mulps %xmm1,%xmm2
DB 15,88,213 ; addps %xmm5,%xmm2
DB 15,40,104,16 ; movaps 0x10(%eax),%xmm5
@@ -54838,7 +44542,7 @@ _sk_srcover_rgba_8888_sse2 LABEL PROC
DB 139,49 ; mov (%ecx),%esi
DB 15,133,224,0,0,0 ; jne 1d6a <_sk_srcover_rgba_8888_sse2+0x119>
DB 243,15,111,20,178 ; movdqu (%edx,%esi,4),%xmm2
- DB 102,15,111,167,184,229,0,0 ; movdqa 0xe5b8(%edi),%xmm4
+ DB 102,15,111,167,168,169,0,0 ; movdqa 0xa9a8(%edi),%xmm4
DB 102,15,111,234 ; movdqa %xmm2,%xmm5
DB 102,15,219,236 ; pand %xmm4,%xmm5
DB 102,15,111,242 ; movdqa %xmm2,%xmm6
@@ -54849,9 +44553,9 @@ _sk_srcover_rgba_8888_sse2 LABEL PROC
DB 102,15,219,252 ; pand %xmm4,%xmm7
DB 15,91,229 ; cvtdq2ps %xmm5,%xmm4
DB 15,41,97,16 ; movaps %xmm4,0x10(%ecx)
- DB 15,40,175,248,228,0,0 ; movaps 0xe4f8(%edi),%xmm5
+ DB 15,40,175,232,168,0,0 ; movaps 0xa8e8(%edi),%xmm5
DB 15,92,235 ; subps %xmm3,%xmm5
- DB 15,40,143,200,229,0,0 ; movaps 0xe5c8(%edi),%xmm1
+ DB 15,40,143,184,169,0,0 ; movaps 0xa9b8(%edi),%xmm1
DB 15,89,193 ; mulps %xmm1,%xmm0
DB 15,89,229 ; mulps %xmm5,%xmm4
DB 15,88,224 ; addps %xmm0,%xmm4
@@ -54961,7 +44665,7 @@ _sk_clamp_1_sse2 LABEL PROC
DB 232,0,0,0,0 ; call 1e14 <_sk_clamp_1_sse2+0xb>
DB 88 ; pop %eax
DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,40,160,76,227,0,0 ; movaps 0xe34c(%eax),%xmm4
+ DB 15,40,160,60,167,0,0 ; movaps 0xa73c(%eax),%xmm4
DB 15,93,196 ; minps %xmm4,%xmm0
DB 15,93,204 ; minps %xmm4,%xmm1
DB 15,93,212 ; minps %xmm4,%xmm2
@@ -54983,7 +44687,7 @@ _sk_clamp_a_sse2 LABEL PROC
DB 232,0,0,0,0 ; call 1e47 <_sk_clamp_a_sse2+0xb>
DB 88 ; pop %eax
DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,93,152,25,227,0,0 ; minps 0xe319(%eax),%xmm3
+ DB 15,93,152,9,167,0,0 ; minps 0xa709(%eax),%xmm3
DB 15,93,195 ; minps %xmm3,%xmm0
DB 15,93,203 ; minps %xmm3,%xmm1
DB 15,93,211 ; minps %xmm3,%xmm2
@@ -55006,7 +44710,7 @@ _sk_clamp_a_dst_sse2 LABEL PROC
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 139,85,8 ; mov 0x8(%ebp),%edx
DB 15,40,98,64 ; movaps 0x40(%edx),%xmm4
- DB 15,93,160,233,226,0,0 ; minps 0xe2e9(%eax),%xmm4
+ DB 15,93,160,217,166,0,0 ; minps 0xa6d9(%eax),%xmm4
DB 15,41,98,64 ; movaps %xmm4,0x40(%edx)
DB 15,40,106,16 ; movaps 0x10(%edx),%xmm5
DB 15,40,114,32 ; movaps 0x20(%edx),%xmm6
@@ -55074,7 +44778,7 @@ _sk_invert_sse2 LABEL PROC
DB 232,0,0,0,0 ; call 1f22 <_sk_invert_sse2+0xb>
DB 88 ; pop %eax
DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,40,160,62,226,0,0 ; movaps 0xe23e(%eax),%xmm4
+ DB 15,40,160,46,166,0,0 ; movaps 0xa62e(%eax),%xmm4
DB 15,40,236 ; movaps %xmm4,%xmm5
DB 15,92,232 ; subps %xmm0,%xmm5
DB 15,40,244 ; movaps %xmm4,%xmm6
@@ -55187,7 +44891,7 @@ _sk_unpremul_sse2 LABEL PROC
DB 88 ; pop %eax
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,40,168,64,225,0,0 ; movaps 0xe140(%eax),%xmm5
+ DB 15,40,168,48,165,0,0 ; movaps 0xa530(%eax),%xmm5
DB 15,94,235 ; divps %xmm3,%xmm5
DB 15,194,227,4 ; cmpneqps %xmm3,%xmm4
DB 15,84,229 ; andps %xmm5,%xmm4
@@ -55216,19 +44920,19 @@ _sk_from_srgb_sse2 LABEL PROC
DB 88 ; pop %eax
DB 15,40,202 ; movaps %xmm2,%xmm1
DB 15,89,201 ; mulps %xmm1,%xmm1
- DB 15,40,160,134,225,0,0 ; movaps 0xe186(%eax),%xmm4
+ DB 15,40,160,118,165,0,0 ; movaps 0xa576(%eax),%xmm4
DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,176,230,225,0,0 ; movaps 0xe1e6(%eax),%xmm6
+ DB 15,40,176,214,165,0,0 ; movaps 0xa5d6(%eax),%xmm6
DB 15,41,117,216 ; movaps %xmm6,-0x28(%ebp)
DB 15,88,198 ; addps %xmm6,%xmm0
DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,176,214,225,0,0 ; movaps 0xe1d6(%eax),%xmm6
+ DB 15,40,176,198,165,0,0 ; movaps 0xa5c6(%eax),%xmm6
DB 15,40,202 ; movaps %xmm2,%xmm1
DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,40,184,246,225,0,0 ; movaps 0xe1f6(%eax),%xmm7
+ DB 15,40,184,230,165,0,0 ; movaps 0xa5e6(%eax),%xmm7
DB 15,41,125,232 ; movaps %xmm7,-0x18(%ebp)
DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,40,184,6,226,0,0 ; movaps 0xe206(%eax),%xmm7
+ DB 15,40,184,246,165,0,0 ; movaps 0xa5f6(%eax),%xmm7
DB 15,194,215,1 ; cmpltps %xmm7,%xmm2
DB 15,84,202 ; andps %xmm2,%xmm1
DB 15,85,208 ; andnps %xmm0,%xmm2
@@ -55286,18 +44990,18 @@ _sk_from_srgb_dst_sse2 LABEL PROC
DB 15,40,72,16 ; movaps 0x10(%eax),%xmm1
DB 15,40,233 ; movaps %xmm1,%xmm5
DB 15,89,237 ; mulps %xmm5,%xmm5
- DB 15,40,161,171,224,0,0 ; movaps 0xe0ab(%ecx),%xmm4
+ DB 15,40,161,155,164,0,0 ; movaps 0xa49b(%ecx),%xmm4
DB 15,40,193 ; movaps %xmm1,%xmm0
DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,177,11,225,0,0 ; movaps 0xe10b(%ecx),%xmm6
+ DB 15,40,177,251,164,0,0 ; movaps 0xa4fb(%ecx),%xmm6
DB 15,88,198 ; addps %xmm6,%xmm0
DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,40,169,251,224,0,0 ; movaps 0xe0fb(%ecx),%xmm5
+ DB 15,40,169,235,164,0,0 ; movaps 0xa4eb(%ecx),%xmm5
DB 15,40,209 ; movaps %xmm1,%xmm2
DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,40,185,27,225,0,0 ; movaps 0xe11b(%ecx),%xmm7
+ DB 15,40,185,11,165,0,0 ; movaps 0xa50b(%ecx),%xmm7
DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,40,153,43,225,0,0 ; movaps 0xe12b(%ecx),%xmm3
+ DB 15,40,153,27,165,0,0 ; movaps 0xa51b(%ecx),%xmm3
DB 15,194,203,1 ; cmpltps %xmm3,%xmm1
DB 15,84,209 ; andps %xmm1,%xmm2
DB 15,85,200 ; andnps %xmm0,%xmm1
@@ -55357,25 +45061,25 @@ _sk_to_srgb_sse2 LABEL PROC
DB 232,0,0,0,0 ; call 2230 <_sk_to_srgb_sse2+0x18>
DB 88 ; pop %eax
DB 15,82,218 ; rsqrtps %xmm2,%xmm3
- DB 15,40,160,96,224,0,0 ; movaps 0xe060(%eax),%xmm4
+ DB 15,40,160,80,164,0,0 ; movaps 0xa450(%eax),%xmm4
DB 15,40,235 ; movaps %xmm3,%xmm5
DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,40,128,112,224,0,0 ; movaps 0xe070(%eax),%xmm0
+ DB 15,40,128,96,164,0,0 ; movaps 0xa460(%eax),%xmm0
DB 15,41,69,232 ; movaps %xmm0,-0x18(%ebp)
DB 15,88,232 ; addps %xmm0,%xmm5
DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,40,128,128,224,0,0 ; movaps 0xe080(%eax),%xmm0
+ DB 15,40,128,112,164,0,0 ; movaps 0xa470(%eax),%xmm0
DB 15,41,69,200 ; movaps %xmm0,-0x38(%ebp)
DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,40,128,144,224,0,0 ; movaps 0xe090(%eax),%xmm0
+ DB 15,40,128,128,164,0,0 ; movaps 0xa480(%eax),%xmm0
DB 15,41,69,216 ; movaps %xmm0,-0x28(%ebp)
DB 15,88,216 ; addps %xmm0,%xmm3
DB 15,83,195 ; rcpps %xmm3,%xmm0
DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,40,168,80,224,0,0 ; movaps 0xe050(%eax),%xmm5
+ DB 15,40,168,64,164,0,0 ; movaps 0xa440(%eax),%xmm5
DB 15,40,202 ; movaps %xmm2,%xmm1
DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,40,152,160,224,0,0 ; movaps 0xe0a0(%eax),%xmm3
+ DB 15,40,152,144,164,0,0 ; movaps 0xa490(%eax),%xmm3
DB 15,194,211,1 ; cmpltps %xmm3,%xmm2
DB 15,84,202 ; andps %xmm2,%xmm1
DB 15,85,208 ; andnps %xmm0,%xmm2
@@ -55444,14 +45148,14 @@ _sk_rgb_to_hsl_sse2 LABEL PROC
DB 15,40,195 ; movaps %xmm3,%xmm0
DB 15,92,193 ; subps %xmm1,%xmm0
DB 15,41,69,216 ; movaps %xmm0,-0x28(%ebp)
- DB 15,40,136,57,222,0,0 ; movaps 0xde39(%eax),%xmm1
+ DB 15,40,136,41,162,0,0 ; movaps 0xa229(%eax),%xmm1
DB 15,94,200 ; divps %xmm0,%xmm1
DB 15,40,199 ; movaps %xmm7,%xmm0
DB 15,92,194 ; subps %xmm2,%xmm0
DB 15,89,193 ; mulps %xmm1,%xmm0
DB 15,40,239 ; movaps %xmm7,%xmm5
DB 15,194,234,1 ; cmpltps %xmm2,%xmm5
- DB 15,84,168,185,223,0,0 ; andps 0xdfb9(%eax),%xmm5
+ DB 15,84,168,169,163,0,0 ; andps 0xa3a9(%eax),%xmm5
DB 15,88,232 ; addps %xmm0,%xmm5
DB 15,40,195 ; movaps %xmm3,%xmm0
DB 15,194,196,0 ; cmpeqps %xmm4,%xmm0
@@ -55461,9 +45165,9 @@ _sk_rgb_to_hsl_sse2 LABEL PROC
DB 15,92,231 ; subps %xmm7,%xmm4
DB 15,89,209 ; mulps %xmm1,%xmm2
DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,40,136,201,223,0,0 ; movaps 0xdfc9(%eax),%xmm1
+ DB 15,40,136,185,163,0,0 ; movaps 0xa3b9(%eax),%xmm1
DB 15,88,209 ; addps %xmm1,%xmm2
- DB 15,88,160,217,223,0,0 ; addps 0xdfd9(%eax),%xmm4
+ DB 15,88,160,201,163,0,0 ; addps 0xa3c9(%eax),%xmm4
DB 15,84,214 ; andps %xmm6,%xmm2
DB 15,85,244 ; andnps %xmm4,%xmm6
DB 15,86,242 ; orps %xmm2,%xmm6
@@ -55475,7 +45179,7 @@ _sk_rgb_to_hsl_sse2 LABEL PROC
DB 15,194,226,4 ; cmpneqps %xmm2,%xmm4
DB 15,92,203 ; subps %xmm3,%xmm1
DB 15,88,218 ; addps %xmm2,%xmm3
- DB 15,40,168,41,222,0,0 ; movaps 0xde29(%eax),%xmm5
+ DB 15,40,168,25,162,0,0 ; movaps 0xa219(%eax),%xmm5
DB 15,92,202 ; subps %xmm2,%xmm1
DB 15,40,211 ; movaps %xmm3,%xmm2
DB 15,89,213 ; mulps %xmm5,%xmm2
@@ -55485,7 +45189,7 @@ _sk_rgb_to_hsl_sse2 LABEL PROC
DB 15,86,233 ; orps %xmm1,%xmm5
DB 15,40,77,216 ; movaps -0x28(%ebp),%xmm1
DB 15,94,205 ; divps %xmm5,%xmm1
- DB 15,89,128,233,223,0,0 ; mulps 0xdfe9(%eax),%xmm0
+ DB 15,89,128,217,163,0,0 ; mulps 0xa3d9(%eax),%xmm0
DB 15,84,196 ; andps %xmm4,%xmm0
DB 15,84,204 ; andps %xmm4,%xmm1
DB 139,69,12 ; mov 0xc(%ebp),%eax
@@ -55508,7 +45212,7 @@ _sk_hsl_to_rgb_sse2 LABEL PROC
DB 15,41,69,184 ; movaps %xmm0,-0x48(%ebp)
DB 232,0,0,0,0 ; call 2422 <_sk_hsl_to_rgb_sse2+0x19>
DB 88 ; pop %eax
- DB 15,40,160,46,221,0,0 ; movaps 0xdd2e(%eax),%xmm4
+ DB 15,40,160,30,161,0,0 ; movaps 0xa11e(%eax),%xmm4
DB 15,40,220 ; movaps %xmm4,%xmm3
DB 15,41,165,104,255,255,255 ; movaps %xmm4,-0x98(%ebp)
DB 15,194,218,2 ; cmpleps %xmm2,%xmm3
@@ -55521,13 +45225,13 @@ _sk_hsl_to_rgb_sse2 LABEL PROC
DB 15,84,243 ; andps %xmm3,%xmm6
DB 15,85,217 ; andnps %xmm1,%xmm3
DB 15,86,222 ; orps %xmm6,%xmm3
- DB 15,40,168,254,222,0,0 ; movaps 0xdefe(%eax),%xmm5
+ DB 15,40,168,238,162,0,0 ; movaps 0xa2ee(%eax),%xmm5
DB 15,88,232 ; addps %xmm0,%xmm5
DB 243,15,91,205 ; cvttps2dq %xmm5,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,194,193,1 ; cmpltps %xmm1,%xmm0
- DB 15,40,176,62,221,0,0 ; movaps 0xdd3e(%eax),%xmm6
+ DB 15,40,176,46,161,0,0 ; movaps 0xa12e(%eax),%xmm6
DB 15,41,117,136 ; movaps %xmm6,-0x78(%ebp)
DB 15,84,198 ; andps %xmm6,%xmm0
DB 15,92,200 ; subps %xmm0,%xmm1
@@ -55537,19 +45241,19 @@ _sk_hsl_to_rgb_sse2 LABEL PROC
DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
DB 15,88,210 ; addps %xmm2,%xmm2
DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,40,184,14,223,0,0 ; movaps 0xdf0e(%eax),%xmm7
+ DB 15,40,184,254,162,0,0 ; movaps 0xa2fe(%eax),%xmm7
DB 15,41,189,88,255,255,255 ; movaps %xmm7,-0xa8(%ebp)
DB 15,194,253,2 ; cmpleps %xmm5,%xmm7
DB 15,92,218 ; subps %xmm2,%xmm3
DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
DB 15,40,204 ; movaps %xmm4,%xmm1
DB 15,194,205,2 ; cmpleps %xmm5,%xmm1
- DB 15,40,160,238,222,0,0 ; movaps 0xdeee(%eax),%xmm4
+ DB 15,40,160,222,162,0,0 ; movaps 0xa2de(%eax),%xmm4
DB 15,41,165,120,255,255,255 ; movaps %xmm4,-0x88(%ebp)
DB 15,194,229,2 ; cmpleps %xmm5,%xmm4
- DB 15,40,176,190,222,0,0 ; movaps 0xdebe(%eax),%xmm6
+ DB 15,40,176,174,162,0,0 ; movaps 0xa2ae(%eax),%xmm6
DB 15,89,238 ; mulps %xmm6,%xmm5
- DB 15,40,128,222,222,0,0 ; movaps 0xdede(%eax),%xmm0
+ DB 15,40,128,206,162,0,0 ; movaps 0xa2ce(%eax),%xmm0
DB 15,41,69,168 ; movaps %xmm0,-0x58(%ebp)
DB 15,92,197 ; subps %xmm5,%xmm0
DB 15,89,195 ; mulps %xmm3,%xmm0
@@ -55575,18 +45279,18 @@ _sk_hsl_to_rgb_sse2 LABEL PROC
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
DB 15,40,203 ; movaps %xmm3,%xmm1
DB 15,194,200,1 ; cmpltps %xmm0,%xmm1
- DB 15,84,136,62,221,0,0 ; andps 0xdd3e(%eax),%xmm1
+ DB 15,84,136,46,161,0,0 ; andps 0xa12e(%eax),%xmm1
DB 15,92,193 ; subps %xmm1,%xmm0
DB 15,40,203 ; movaps %xmm3,%xmm1
DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,40,128,14,223,0,0 ; movaps 0xdf0e(%eax),%xmm0
+ DB 15,40,128,254,162,0,0 ; movaps 0xa2fe(%eax),%xmm0
DB 15,194,193,2 ; cmpleps %xmm1,%xmm0
- DB 15,40,152,46,221,0,0 ; movaps 0xdd2e(%eax),%xmm3
+ DB 15,40,152,30,161,0,0 ; movaps 0xa11e(%eax),%xmm3
DB 15,194,217,2 ; cmpleps %xmm1,%xmm3
- DB 15,40,160,238,222,0,0 ; movaps 0xdeee(%eax),%xmm4
+ DB 15,40,160,222,162,0,0 ; movaps 0xa2de(%eax),%xmm4
DB 15,194,225,2 ; cmpleps %xmm1,%xmm4
DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,40,168,222,222,0,0 ; movaps 0xdede(%eax),%xmm5
+ DB 15,40,168,206,162,0,0 ; movaps 0xa2ce(%eax),%xmm5
DB 15,92,233 ; subps %xmm1,%xmm5
DB 15,89,239 ; mulps %xmm7,%xmm5
DB 15,88,234 ; addps %xmm2,%xmm5
@@ -55606,7 +45310,7 @@ _sk_hsl_to_rgb_sse2 LABEL PROC
DB 15,40,125,232 ; movaps -0x18(%ebp),%xmm7
DB 15,85,252 ; andnps %xmm4,%xmm7
DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 15,88,152,30,223,0,0 ; addps 0xdf1e(%eax),%xmm3
+ DB 15,88,152,14,163,0,0 ; addps 0xa30e(%eax),%xmm3
DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
DB 15,40,203 ; movaps %xmm3,%xmm1
@@ -55704,9 +45408,9 @@ _sk_scale_u8_sse2 LABEL PROC
DB 102,15,110,36,62 ; movd (%esi,%edi,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,162,132,219,0,0 ; pand 0xdb84(%edx),%xmm4
+ DB 102,15,219,162,116,159,0,0 ; pand 0x9f74(%edx),%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,180,220,0,0 ; mulps 0xdcb4(%edx),%xmm4
+ DB 15,89,162,164,160,0,0 ; mulps 0xa0a4(%edx),%xmm4
DB 15,89,196 ; mulps %xmm4,%xmm0
DB 15,89,204 ; mulps %xmm4,%xmm1
DB 15,89,212 ; mulps %xmm4,%xmm2
@@ -55770,17 +45474,17 @@ _sk_scale_565_sse2 LABEL PROC
DB 15,133,157,0,0,0 ; jne 2814 <_sk_scale_565_sse2+0xd8>
DB 243,15,126,52,126 ; movq (%esi,%edi,2),%xmm6
DB 102,15,97,240 ; punpcklwd %xmm0,%xmm6
- DB 102,15,111,162,10,220,0,0 ; movdqa 0xdc0a(%edx),%xmm4
+ DB 102,15,111,162,250,159,0,0 ; movdqa 0x9ffa(%edx),%xmm4
DB 102,15,219,230 ; pand %xmm6,%xmm4
DB 15,91,212 ; cvtdq2ps %xmm4,%xmm2
- DB 15,89,146,26,220,0,0 ; mulps 0xdc1a(%edx),%xmm2
- DB 102,15,111,170,42,220,0,0 ; movdqa 0xdc2a(%edx),%xmm5
+ DB 15,89,146,10,160,0,0 ; mulps 0xa00a(%edx),%xmm2
+ DB 102,15,111,170,26,160,0,0 ; movdqa 0xa01a(%edx),%xmm5
DB 102,15,219,238 ; pand %xmm6,%xmm5
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,58,220,0,0 ; mulps 0xdc3a(%edx),%xmm5
- DB 102,15,219,178,74,220,0,0 ; pand 0xdc4a(%edx),%xmm6
+ DB 15,89,170,42,160,0,0 ; mulps 0xa02a(%edx),%xmm5
+ DB 102,15,219,178,58,160,0,0 ; pand 0xa03a(%edx),%xmm6
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,178,90,220,0,0 ; mulps 0xdc5a(%edx),%xmm6
+ DB 15,89,178,74,160,0,0 ; mulps 0xa04a(%edx),%xmm6
DB 15,40,253 ; movaps %xmm5,%xmm7
DB 15,93,254 ; minps %xmm6,%xmm7
DB 15,40,226 ; movaps %xmm2,%xmm4
@@ -55890,9 +45594,9 @@ _sk_lerp_u8_sse2 LABEL PROC
DB 102,15,110,36,62 ; movd (%esi,%edi,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,162,92,217,0,0 ; pand 0xd95c(%edx),%xmm4
+ DB 102,15,219,162,76,157,0,0 ; pand 0x9d4c(%edx),%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,140,218,0,0 ; mulps 0xda8c(%edx),%xmm4
+ DB 15,89,162,124,158,0,0 ; mulps 0x9e7c(%edx),%xmm4
DB 15,40,105,16 ; movaps 0x10(%ecx),%xmm5
DB 15,40,113,32 ; movaps 0x20(%ecx),%xmm6
DB 15,92,197 ; subps %xmm5,%xmm0
@@ -55968,17 +45672,17 @@ _sk_lerp_565_sse2 LABEL PROC
DB 15,133,211,0,0,0 ; jne 2aa2 <_sk_lerp_565_sse2+0x113>
DB 243,15,126,44,126 ; movq (%esi,%edi,2),%xmm5
DB 102,15,97,232 ; punpcklwd %xmm0,%xmm5
- DB 102,15,111,162,178,217,0,0 ; movdqa 0xd9b2(%edx),%xmm4
+ DB 102,15,111,162,162,157,0,0 ; movdqa 0x9da2(%edx),%xmm4
DB 102,15,219,229 ; pand %xmm5,%xmm4
DB 15,91,204 ; cvtdq2ps %xmm4,%xmm1
- DB 15,89,138,194,217,0,0 ; mulps 0xd9c2(%edx),%xmm1
- DB 102,15,111,178,210,217,0,0 ; movdqa 0xd9d2(%edx),%xmm6
+ DB 15,89,138,178,157,0,0 ; mulps 0x9db2(%edx),%xmm1
+ DB 102,15,111,178,194,157,0,0 ; movdqa 0x9dc2(%edx),%xmm6
DB 102,15,219,245 ; pand %xmm5,%xmm6
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,178,226,217,0,0 ; mulps 0xd9e2(%edx),%xmm6
- DB 102,15,219,170,242,217,0,0 ; pand 0xd9f2(%edx),%xmm5
+ DB 15,89,178,210,157,0,0 ; mulps 0x9dd2(%edx),%xmm6
+ DB 102,15,219,170,226,157,0,0 ; pand 0x9de2(%edx),%xmm5
DB 15,91,213 ; cvtdq2ps %xmm5,%xmm2
- DB 15,89,146,2,218,0,0 ; mulps 0xda02(%edx),%xmm2
+ DB 15,89,146,242,157,0,0 ; mulps 0x9df2(%edx),%xmm2
DB 15,40,218 ; movaps %xmm2,%xmm3
DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
DB 15,40,254 ; movaps %xmm6,%xmm7
@@ -56064,7 +45768,7 @@ _sk_load_tables_sse2 LABEL PROC
DB 139,30 ; mov (%esi),%ebx
DB 15,133,22,1,0,0 ; jne 2c26 <_sk_load_tables_sse2+0x13c>
DB 243,15,111,28,187 ; movdqu (%ebx,%edi,4),%xmm3
- DB 102,15,111,146,40,215,0,0 ; movdqa 0xd728(%edx),%xmm2
+ DB 102,15,111,146,24,155,0,0 ; movdqa 0x9b18(%edx),%xmm2
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
@@ -56120,7 +45824,7 @@ _sk_load_tables_sse2 LABEL PROC
DB 102,15,20,215 ; unpcklpd %xmm7,%xmm2
DB 102,15,114,211,24 ; psrld $0x18,%xmm3
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,154,88,216,0,0 ; mulps 0xd858(%edx),%xmm3
+ DB 15,89,154,72,156,0,0 ; mulps 0x9c48(%edx),%xmm3
DB 139,69,12 ; mov 0xc(%ebp),%eax
DB 137,194 ; mov %eax,%edx
DB 141,66,8 ; lea 0x8(%edx),%eax
@@ -56193,7 +45897,7 @@ _sk_load_tables_u16_be_sse2 LABEL PROC
DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,111,146,87,215,0,0 ; movdqa 0xd757(%edx),%xmm2
+ DB 102,15,111,146,71,155,0,0 ; movdqa 0x9b47(%edx),%xmm2
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,97,196 ; punpcklwd %xmm4,%xmm0
@@ -56265,7 +45969,7 @@ _sk_load_tables_u16_be_sse2 LABEL PROC
DB 243,15,126,93,232 ; movq -0x18(%ebp),%xmm3
DB 102,15,97,220 ; punpcklwd %xmm4,%xmm3
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,154,103,215,0,0 ; mulps 0xd767(%edx),%xmm3
+ DB 15,89,154,87,155,0,0 ; mulps 0x9b57(%edx),%xmm3
DB 139,69,12 ; mov 0xc(%ebp),%eax
DB 137,194 ; mov %eax,%edx
DB 141,66,8 ; lea 0x8(%edx),%eax
@@ -56336,7 +46040,7 @@ _sk_load_tables_rgb_u16_be_sse2 LABEL PROC
DB 242,15,112,194,232 ; pshuflw $0xe8,%xmm2,%xmm0
DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,111,146,48,213,0,0 ; movdqa 0xd530(%edx),%xmm2
+ DB 102,15,111,146,32,153,0,0 ; movdqa 0x9920(%edx),%xmm2
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
@@ -56401,7 +46105,7 @@ _sk_load_tables_rgb_u16_be_sse2 LABEL PROC
DB 137,198 ; mov %eax,%esi
DB 141,70,8 ; lea 0x8(%esi),%eax
DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,154,208,210,0,0 ; movaps 0xd2d0(%edx),%xmm3
+ DB 15,40,154,192,150,0,0 ; movaps 0x96c0(%edx),%xmm3
DB 80 ; push %eax
DB 81 ; push %ecx
DB 255,86,4 ; call *0x4(%esi)
@@ -56442,7 +46146,7 @@ _sk_byte_tables_sse2 LABEL PROC
DB 90 ; pop %edx
DB 139,69,12 ; mov 0xc(%ebp),%eax
DB 139,8 ; mov (%eax),%ecx
- DB 15,40,162,115,209,0,0 ; movaps 0xd173(%edx),%xmm4
+ DB 15,40,162,99,149,0,0 ; movaps 0x9563(%edx),%xmm4
DB 15,89,196 ; mulps %xmm4,%xmm0
DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
@@ -56464,7 +46168,7 @@ _sk_byte_tables_sse2 LABEL PROC
DB 102,15,110,192 ; movd %eax,%xmm0
DB 139,65,4 ; mov 0x4(%ecx),%eax
DB 102,15,196,195,1 ; pinsrw $0x1,%ebx,%xmm0
- DB 15,40,170,147,210,0,0 ; movaps 0xd293(%edx),%xmm5
+ DB 15,40,170,131,150,0,0 ; movaps 0x9683(%edx),%xmm5
DB 15,89,204 ; mulps %xmm4,%xmm1
DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
DB 102,15,112,241,78 ; pshufd $0x4e,%xmm1,%xmm6
@@ -56592,7 +46296,7 @@ _sk_byte_tables_rgb_sse2 LABEL PROC
DB 102,15,110,199 ; movd %edi,%xmm0
DB 139,121,4 ; mov 0x4(%ecx),%edi
DB 102,15,196,198,1 ; pinsrw $0x1,%esi,%xmm0
- DB 15,40,170,151,208,0,0 ; movaps 0xd097(%edx),%xmm5
+ DB 15,40,170,135,148,0,0 ; movaps 0x9487(%edx),%xmm5
DB 15,89,204 ; mulps %xmm4,%xmm1
DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
DB 102,15,112,241,78 ; pshufd $0x4e,%xmm1,%xmm6
@@ -56838,15 +46542,15 @@ _sk_parametric_r_sse2 LABEL PROC
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
DB 15,88,245 ; addps %xmm5,%xmm6
DB 15,91,238 ; cvtdq2ps %xmm6,%xmm5
- DB 15,89,170,87,206,0,0 ; mulps 0xce57(%edx),%xmm5
- DB 15,84,178,103,206,0,0 ; andps 0xce67(%edx),%xmm6
- DB 15,86,178,199,203,0,0 ; orps 0xcbc7(%edx),%xmm6
- DB 15,88,170,119,206,0,0 ; addps 0xce77(%edx),%xmm5
- DB 15,40,186,135,206,0,0 ; movaps 0xce87(%edx),%xmm7
+ DB 15,89,170,71,146,0,0 ; mulps 0x9247(%edx),%xmm5
+ DB 15,84,178,87,146,0,0 ; andps 0x9257(%edx),%xmm6
+ DB 15,86,178,183,143,0,0 ; orps 0x8fb7(%edx),%xmm6
+ DB 15,88,170,103,146,0,0 ; addps 0x9267(%edx),%xmm5
+ DB 15,40,186,119,146,0,0 ; movaps 0x9277(%edx),%xmm7
DB 15,89,254 ; mulps %xmm6,%xmm7
DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,88,178,151,206,0,0 ; addps 0xce97(%edx),%xmm6
- DB 15,40,186,167,206,0,0 ; movaps 0xcea7(%edx),%xmm7
+ DB 15,88,178,135,146,0,0 ; addps 0x9287(%edx),%xmm6
+ DB 15,40,186,151,146,0,0 ; movaps 0x9297(%edx),%xmm7
DB 15,94,254 ; divps %xmm6,%xmm7
DB 243,15,16,49 ; movss (%ecx),%xmm6
DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
@@ -56856,21 +46560,21 @@ _sk_parametric_r_sse2 LABEL PROC
DB 15,91,254 ; cvtdq2ps %xmm6,%xmm7
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,194,199,1 ; cmpltps %xmm7,%xmm0
- DB 15,40,178,215,203,0,0 ; movaps 0xcbd7(%edx),%xmm6
+ DB 15,40,178,199,143,0,0 ; movaps 0x8fc7(%edx),%xmm6
DB 15,84,198 ; andps %xmm6,%xmm0
DB 15,92,248 ; subps %xmm0,%xmm7
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,92,199 ; subps %xmm7,%xmm0
- DB 15,88,170,183,206,0,0 ; addps 0xceb7(%edx),%xmm5
- DB 15,40,186,199,206,0,0 ; movaps 0xcec7(%edx),%xmm7
+ DB 15,88,170,167,146,0,0 ; addps 0x92a7(%edx),%xmm5
+ DB 15,40,186,183,146,0,0 ; movaps 0x92b7(%edx),%xmm7
DB 15,89,248 ; mulps %xmm0,%xmm7
DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,40,186,215,206,0,0 ; movaps 0xced7(%edx),%xmm7
+ DB 15,40,186,199,146,0,0 ; movaps 0x92c7(%edx),%xmm7
DB 15,92,248 ; subps %xmm0,%xmm7
- DB 15,40,130,231,206,0,0 ; movaps 0xcee7(%edx),%xmm0
+ DB 15,40,130,215,146,0,0 ; movaps 0x92d7(%edx),%xmm0
DB 15,94,199 ; divps %xmm7,%xmm0
DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,89,130,247,206,0,0 ; mulps 0xcef7(%edx),%xmm0
+ DB 15,89,130,231,146,0,0 ; mulps 0x92e7(%edx),%xmm0
DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
DB 243,15,16,105,20 ; movss 0x14(%ecx),%xmm5
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
@@ -56922,15 +46626,15 @@ _sk_parametric_g_sse2 LABEL PROC
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
DB 15,88,245 ; addps %xmm5,%xmm6
DB 15,91,238 ; cvtdq2ps %xmm6,%xmm5
- DB 15,89,170,32,205,0,0 ; mulps 0xcd20(%edx),%xmm5
- DB 15,84,178,48,205,0,0 ; andps 0xcd30(%edx),%xmm6
- DB 15,86,178,144,202,0,0 ; orps 0xca90(%edx),%xmm6
- DB 15,88,170,64,205,0,0 ; addps 0xcd40(%edx),%xmm5
- DB 15,40,186,80,205,0,0 ; movaps 0xcd50(%edx),%xmm7
+ DB 15,89,170,16,145,0,0 ; mulps 0x9110(%edx),%xmm5
+ DB 15,84,178,32,145,0,0 ; andps 0x9120(%edx),%xmm6
+ DB 15,86,178,128,142,0,0 ; orps 0x8e80(%edx),%xmm6
+ DB 15,88,170,48,145,0,0 ; addps 0x9130(%edx),%xmm5
+ DB 15,40,186,64,145,0,0 ; movaps 0x9140(%edx),%xmm7
DB 15,89,254 ; mulps %xmm6,%xmm7
DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,88,178,96,205,0,0 ; addps 0xcd60(%edx),%xmm6
- DB 15,40,186,112,205,0,0 ; movaps 0xcd70(%edx),%xmm7
+ DB 15,88,178,80,145,0,0 ; addps 0x9150(%edx),%xmm6
+ DB 15,40,186,96,145,0,0 ; movaps 0x9160(%edx),%xmm7
DB 15,94,254 ; divps %xmm6,%xmm7
DB 243,15,16,49 ; movss (%ecx),%xmm6
DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
@@ -56940,21 +46644,21 @@ _sk_parametric_g_sse2 LABEL PROC
DB 15,91,254 ; cvtdq2ps %xmm6,%xmm7
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,194,199,1 ; cmpltps %xmm7,%xmm0
- DB 15,40,178,160,202,0,0 ; movaps 0xcaa0(%edx),%xmm6
+ DB 15,40,178,144,142,0,0 ; movaps 0x8e90(%edx),%xmm6
DB 15,84,198 ; andps %xmm6,%xmm0
DB 15,92,248 ; subps %xmm0,%xmm7
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,92,199 ; subps %xmm7,%xmm0
- DB 15,88,170,128,205,0,0 ; addps 0xcd80(%edx),%xmm5
- DB 15,40,186,144,205,0,0 ; movaps 0xcd90(%edx),%xmm7
+ DB 15,88,170,112,145,0,0 ; addps 0x9170(%edx),%xmm5
+ DB 15,40,186,128,145,0,0 ; movaps 0x9180(%edx),%xmm7
DB 15,89,248 ; mulps %xmm0,%xmm7
DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,40,186,160,205,0,0 ; movaps 0xcda0(%edx),%xmm7
+ DB 15,40,186,144,145,0,0 ; movaps 0x9190(%edx),%xmm7
DB 15,92,248 ; subps %xmm0,%xmm7
- DB 15,40,130,176,205,0,0 ; movaps 0xcdb0(%edx),%xmm0
+ DB 15,40,130,160,145,0,0 ; movaps 0x91a0(%edx),%xmm0
DB 15,94,199 ; divps %xmm7,%xmm0
DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,89,130,192,205,0,0 ; mulps 0xcdc0(%edx),%xmm0
+ DB 15,89,130,176,145,0,0 ; mulps 0x91b0(%edx),%xmm0
DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
DB 243,15,16,105,20 ; movss 0x14(%ecx),%xmm5
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
@@ -57005,15 +46709,15 @@ _sk_parametric_b_sse2 LABEL PROC
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
DB 15,88,245 ; addps %xmm5,%xmm6
DB 15,91,238 ; cvtdq2ps %xmm6,%xmm5
- DB 15,89,170,236,203,0,0 ; mulps 0xcbec(%edx),%xmm5
- DB 15,84,178,252,203,0,0 ; andps 0xcbfc(%edx),%xmm6
- DB 15,86,178,92,201,0,0 ; orps 0xc95c(%edx),%xmm6
- DB 15,88,170,12,204,0,0 ; addps 0xcc0c(%edx),%xmm5
- DB 15,40,186,28,204,0,0 ; movaps 0xcc1c(%edx),%xmm7
+ DB 15,89,170,220,143,0,0 ; mulps 0x8fdc(%edx),%xmm5
+ DB 15,84,178,236,143,0,0 ; andps 0x8fec(%edx),%xmm6
+ DB 15,86,178,76,141,0,0 ; orps 0x8d4c(%edx),%xmm6
+ DB 15,88,170,252,143,0,0 ; addps 0x8ffc(%edx),%xmm5
+ DB 15,40,186,12,144,0,0 ; movaps 0x900c(%edx),%xmm7
DB 15,89,254 ; mulps %xmm6,%xmm7
DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,88,178,44,204,0,0 ; addps 0xcc2c(%edx),%xmm6
- DB 15,40,186,60,204,0,0 ; movaps 0xcc3c(%edx),%xmm7
+ DB 15,88,178,28,144,0,0 ; addps 0x901c(%edx),%xmm6
+ DB 15,40,186,44,144,0,0 ; movaps 0x902c(%edx),%xmm7
DB 15,94,254 ; divps %xmm6,%xmm7
DB 243,15,16,49 ; movss (%ecx),%xmm6
DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
@@ -57023,21 +46727,21 @@ _sk_parametric_b_sse2 LABEL PROC
DB 15,91,254 ; cvtdq2ps %xmm6,%xmm7
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,194,199,1 ; cmpltps %xmm7,%xmm0
- DB 15,40,178,108,201,0,0 ; movaps 0xc96c(%edx),%xmm6
+ DB 15,40,178,92,141,0,0 ; movaps 0x8d5c(%edx),%xmm6
DB 15,84,198 ; andps %xmm6,%xmm0
DB 15,92,248 ; subps %xmm0,%xmm7
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,92,199 ; subps %xmm7,%xmm0
- DB 15,88,170,76,204,0,0 ; addps 0xcc4c(%edx),%xmm5
- DB 15,40,186,92,204,0,0 ; movaps 0xcc5c(%edx),%xmm7
+ DB 15,88,170,60,144,0,0 ; addps 0x903c(%edx),%xmm5
+ DB 15,40,186,76,144,0,0 ; movaps 0x904c(%edx),%xmm7
DB 15,89,248 ; mulps %xmm0,%xmm7
DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,40,186,108,204,0,0 ; movaps 0xcc6c(%edx),%xmm7
+ DB 15,40,186,92,144,0,0 ; movaps 0x905c(%edx),%xmm7
DB 15,92,248 ; subps %xmm0,%xmm7
- DB 15,40,130,124,204,0,0 ; movaps 0xcc7c(%edx),%xmm0
+ DB 15,40,130,108,144,0,0 ; movaps 0x906c(%edx),%xmm0
DB 15,94,199 ; divps %xmm7,%xmm0
DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,89,130,140,204,0,0 ; mulps 0xcc8c(%edx),%xmm0
+ DB 15,89,130,124,144,0,0 ; mulps 0x907c(%edx),%xmm0
DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
DB 243,15,16,105,20 ; movss 0x14(%ecx),%xmm5
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
@@ -57088,15 +46792,15 @@ _sk_parametric_a_sse2 LABEL PROC
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
DB 15,88,245 ; addps %xmm5,%xmm6
DB 15,91,238 ; cvtdq2ps %xmm6,%xmm5
- DB 15,89,170,184,202,0,0 ; mulps 0xcab8(%edx),%xmm5
- DB 15,84,178,200,202,0,0 ; andps 0xcac8(%edx),%xmm6
- DB 15,86,178,40,200,0,0 ; orps 0xc828(%edx),%xmm6
- DB 15,88,170,216,202,0,0 ; addps 0xcad8(%edx),%xmm5
- DB 15,40,186,232,202,0,0 ; movaps 0xcae8(%edx),%xmm7
+ DB 15,89,170,168,142,0,0 ; mulps 0x8ea8(%edx),%xmm5
+ DB 15,84,178,184,142,0,0 ; andps 0x8eb8(%edx),%xmm6
+ DB 15,86,178,24,140,0,0 ; orps 0x8c18(%edx),%xmm6
+ DB 15,88,170,200,142,0,0 ; addps 0x8ec8(%edx),%xmm5
+ DB 15,40,186,216,142,0,0 ; movaps 0x8ed8(%edx),%xmm7
DB 15,89,254 ; mulps %xmm6,%xmm7
DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,88,178,248,202,0,0 ; addps 0xcaf8(%edx),%xmm6
- DB 15,40,186,8,203,0,0 ; movaps 0xcb08(%edx),%xmm7
+ DB 15,88,178,232,142,0,0 ; addps 0x8ee8(%edx),%xmm6
+ DB 15,40,186,248,142,0,0 ; movaps 0x8ef8(%edx),%xmm7
DB 15,94,254 ; divps %xmm6,%xmm7
DB 243,15,16,49 ; movss (%ecx),%xmm6
DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
@@ -57106,21 +46810,21 @@ _sk_parametric_a_sse2 LABEL PROC
DB 15,91,254 ; cvtdq2ps %xmm6,%xmm7
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,194,199,1 ; cmpltps %xmm7,%xmm0
- DB 15,40,178,56,200,0,0 ; movaps 0xc838(%edx),%xmm6
+ DB 15,40,178,40,140,0,0 ; movaps 0x8c28(%edx),%xmm6
DB 15,84,198 ; andps %xmm6,%xmm0
DB 15,92,248 ; subps %xmm0,%xmm7
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,92,199 ; subps %xmm7,%xmm0
- DB 15,88,170,24,203,0,0 ; addps 0xcb18(%edx),%xmm5
- DB 15,40,186,40,203,0,0 ; movaps 0xcb28(%edx),%xmm7
+ DB 15,88,170,8,143,0,0 ; addps 0x8f08(%edx),%xmm5
+ DB 15,40,186,24,143,0,0 ; movaps 0x8f18(%edx),%xmm7
DB 15,89,248 ; mulps %xmm0,%xmm7
DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,40,186,56,203,0,0 ; movaps 0xcb38(%edx),%xmm7
+ DB 15,40,186,40,143,0,0 ; movaps 0x8f28(%edx),%xmm7
DB 15,92,248 ; subps %xmm0,%xmm7
- DB 15,40,130,72,203,0,0 ; movaps 0xcb48(%edx),%xmm0
+ DB 15,40,130,56,143,0,0 ; movaps 0x8f38(%edx),%xmm0
DB 15,94,199 ; divps %xmm7,%xmm0
DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,89,130,88,203,0,0 ; mulps 0xcb58(%edx),%xmm0
+ DB 15,89,130,72,143,0,0 ; mulps 0x8f48(%edx),%xmm0
DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
DB 243,15,16,105,20 ; movss 0x14(%ecx),%xmm5
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
@@ -57153,15 +46857,15 @@ _sk_gamma_sse2 LABEL PROC
DB 232,0,0,0,0 ; call 3a59 <_sk_gamma_sse2+0x12>
DB 88 ; pop %eax
DB 15,91,195 ; cvtdq2ps %xmm3,%xmm0
- DB 15,89,128,135,201,0,0 ; mulps 0xc987(%eax),%xmm0
- DB 15,84,152,151,201,0,0 ; andps 0xc997(%eax),%xmm3
- DB 15,86,152,247,198,0,0 ; orps 0xc6f7(%eax),%xmm3
- DB 15,88,128,167,201,0,0 ; addps 0xc9a7(%eax),%xmm0
+ DB 15,89,128,119,141,0,0 ; mulps 0x8d77(%eax),%xmm0
+ DB 15,84,152,135,141,0,0 ; andps 0x8d87(%eax),%xmm3
+ DB 15,86,152,231,138,0,0 ; orps 0x8ae7(%eax),%xmm3
+ DB 15,88,128,151,141,0,0 ; addps 0x8d97(%eax),%xmm0
DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,89,160,183,201,0,0 ; mulps 0xc9b7(%eax),%xmm4
+ DB 15,89,160,167,141,0,0 ; mulps 0x8da7(%eax),%xmm4
DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,88,152,199,201,0,0 ; addps 0xc9c7(%eax),%xmm3
- DB 15,40,160,215,201,0,0 ; movaps 0xc9d7(%eax),%xmm4
+ DB 15,88,152,183,141,0,0 ; addps 0x8db7(%eax),%xmm3
+ DB 15,40,160,199,141,0,0 ; movaps 0x8dc7(%eax),%xmm4
DB 15,94,227 ; divps %xmm3,%xmm4
DB 15,92,196 ; subps %xmm4,%xmm0
DB 139,77,12 ; mov 0xc(%ebp),%ecx
@@ -57174,30 +46878,30 @@ _sk_gamma_sse2 LABEL PROC
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
DB 15,40,224 ; movaps %xmm0,%xmm4
DB 15,194,227,1 ; cmpltps %xmm3,%xmm4
- DB 15,84,160,7,199,0,0 ; andps 0xc707(%eax),%xmm4
+ DB 15,84,160,247,138,0,0 ; andps 0x8af7(%eax),%xmm4
DB 15,92,220 ; subps %xmm4,%xmm3
DB 15,40,224 ; movaps %xmm0,%xmm4
DB 15,92,227 ; subps %xmm3,%xmm4
- DB 15,88,128,231,201,0,0 ; addps 0xc9e7(%eax),%xmm0
- DB 15,40,176,7,202,0,0 ; movaps 0xca07(%eax),%xmm6
+ DB 15,88,128,215,141,0,0 ; addps 0x8dd7(%eax),%xmm0
+ DB 15,40,176,247,141,0,0 ; movaps 0x8df7(%eax),%xmm6
DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,40,168,247,201,0,0 ; movaps 0xc9f7(%eax),%xmm5
+ DB 15,40,168,231,141,0,0 ; movaps 0x8de7(%eax),%xmm5
DB 15,89,229 ; mulps %xmm5,%xmm4
DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,40,152,23,202,0,0 ; movaps 0xca17(%eax),%xmm3
+ DB 15,40,152,7,142,0,0 ; movaps 0x8e07(%eax),%xmm3
DB 15,40,227 ; movaps %xmm3,%xmm4
DB 15,94,230 ; divps %xmm6,%xmm4
DB 15,88,224 ; addps %xmm0,%xmm4
DB 15,91,193 ; cvtdq2ps %xmm1,%xmm0
- DB 15,89,128,135,201,0,0 ; mulps 0xc987(%eax),%xmm0
- DB 15,84,136,151,201,0,0 ; andps 0xc997(%eax),%xmm1
- DB 15,86,136,247,198,0,0 ; orps 0xc6f7(%eax),%xmm1
- DB 15,88,128,167,201,0,0 ; addps 0xc9a7(%eax),%xmm0
+ DB 15,89,128,119,141,0,0 ; mulps 0x8d77(%eax),%xmm0
+ DB 15,84,136,135,141,0,0 ; andps 0x8d87(%eax),%xmm1
+ DB 15,86,136,231,138,0,0 ; orps 0x8ae7(%eax),%xmm1
+ DB 15,88,128,151,141,0,0 ; addps 0x8d97(%eax),%xmm0
DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,89,176,183,201,0,0 ; mulps 0xc9b7(%eax),%xmm6
+ DB 15,89,176,167,141,0,0 ; mulps 0x8da7(%eax),%xmm6
DB 15,92,198 ; subps %xmm6,%xmm0
- DB 15,88,136,199,201,0,0 ; addps 0xc9c7(%eax),%xmm1
- DB 15,40,176,215,201,0,0 ; movaps 0xc9d7(%eax),%xmm6
+ DB 15,88,136,183,141,0,0 ; addps 0x8db7(%eax),%xmm1
+ DB 15,40,176,199,141,0,0 ; movaps 0x8dc7(%eax),%xmm6
DB 15,94,241 ; divps %xmm1,%xmm6
DB 15,92,198 ; subps %xmm6,%xmm0
DB 15,89,199 ; mulps %xmm7,%xmm0
@@ -57205,12 +46909,12 @@ _sk_gamma_sse2 LABEL PROC
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
DB 15,40,240 ; movaps %xmm0,%xmm6
DB 15,194,241,1 ; cmpltps %xmm1,%xmm6
- DB 15,84,176,7,199,0,0 ; andps 0xc707(%eax),%xmm6
+ DB 15,84,176,247,138,0,0 ; andps 0x8af7(%eax),%xmm6
DB 15,92,206 ; subps %xmm6,%xmm1
DB 15,40,240 ; movaps %xmm0,%xmm6
DB 15,92,241 ; subps %xmm1,%xmm6
- DB 15,88,128,231,201,0,0 ; addps 0xc9e7(%eax),%xmm0
- DB 15,40,184,7,202,0,0 ; movaps 0xca07(%eax),%xmm7
+ DB 15,88,128,215,141,0,0 ; addps 0x8dd7(%eax),%xmm0
+ DB 15,40,184,247,141,0,0 ; movaps 0x8df7(%eax),%xmm7
DB 15,92,254 ; subps %xmm6,%xmm7
DB 15,89,245 ; mulps %xmm5,%xmm6
DB 15,92,198 ; subps %xmm6,%xmm0
@@ -57218,15 +46922,15 @@ _sk_gamma_sse2 LABEL PROC
DB 15,94,207 ; divps %xmm7,%xmm1
DB 15,88,200 ; addps %xmm0,%xmm1
DB 15,91,194 ; cvtdq2ps %xmm2,%xmm0
- DB 15,89,128,135,201,0,0 ; mulps 0xc987(%eax),%xmm0
- DB 15,84,144,151,201,0,0 ; andps 0xc997(%eax),%xmm2
- DB 15,86,144,247,198,0,0 ; orps 0xc6f7(%eax),%xmm2
- DB 15,88,128,167,201,0,0 ; addps 0xc9a7(%eax),%xmm0
- DB 15,40,176,183,201,0,0 ; movaps 0xc9b7(%eax),%xmm6
+ DB 15,89,128,119,141,0,0 ; mulps 0x8d77(%eax),%xmm0
+ DB 15,84,144,135,141,0,0 ; andps 0x8d87(%eax),%xmm2
+ DB 15,86,144,231,138,0,0 ; orps 0x8ae7(%eax),%xmm2
+ DB 15,88,128,151,141,0,0 ; addps 0x8d97(%eax),%xmm0
+ DB 15,40,176,167,141,0,0 ; movaps 0x8da7(%eax),%xmm6
DB 15,89,242 ; mulps %xmm2,%xmm6
DB 15,92,198 ; subps %xmm6,%xmm0
- DB 15,88,144,199,201,0,0 ; addps 0xc9c7(%eax),%xmm2
- DB 15,40,176,215,201,0,0 ; movaps 0xc9d7(%eax),%xmm6
+ DB 15,88,144,183,141,0,0 ; addps 0x8db7(%eax),%xmm2
+ DB 15,40,176,199,141,0,0 ; movaps 0x8dc7(%eax),%xmm6
DB 15,94,242 ; divps %xmm2,%xmm6
DB 15,92,198 ; subps %xmm6,%xmm0
DB 15,89,69,232 ; mulps -0x18(%ebp),%xmm0
@@ -57234,18 +46938,18 @@ _sk_gamma_sse2 LABEL PROC
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
DB 15,40,240 ; movaps %xmm0,%xmm6
DB 15,194,242,1 ; cmpltps %xmm2,%xmm6
- DB 15,84,176,7,199,0,0 ; andps 0xc707(%eax),%xmm6
+ DB 15,84,176,247,138,0,0 ; andps 0x8af7(%eax),%xmm6
DB 15,92,214 ; subps %xmm6,%xmm2
DB 15,40,240 ; movaps %xmm0,%xmm6
DB 15,92,242 ; subps %xmm2,%xmm6
- DB 15,88,128,231,201,0,0 ; addps 0xc9e7(%eax),%xmm0
+ DB 15,88,128,215,141,0,0 ; addps 0x8dd7(%eax),%xmm0
DB 15,89,238 ; mulps %xmm6,%xmm5
DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,40,144,7,202,0,0 ; movaps 0xca07(%eax),%xmm2
+ DB 15,40,144,247,141,0,0 ; movaps 0x8df7(%eax),%xmm2
DB 15,92,214 ; subps %xmm6,%xmm2
DB 15,94,218 ; divps %xmm2,%xmm3
DB 15,88,216 ; addps %xmm0,%xmm3
- DB 15,40,128,39,202,0,0 ; movaps 0xca27(%eax),%xmm0
+ DB 15,40,128,23,142,0,0 ; movaps 0x8e17(%eax),%xmm0
DB 15,89,224 ; mulps %xmm0,%xmm4
DB 15,89,200 ; mulps %xmm0,%xmm1
DB 15,89,216 ; mulps %xmm0,%xmm3
@@ -57272,29 +46976,29 @@ _sk_lab_to_xyz_sse2 LABEL PROC
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 232,0,0,0,0 ; call 3c41 <_sk_lab_to_xyz_sse2+0x15>
DB 88 ; pop %eax
- DB 15,89,144,79,200,0,0 ; mulps 0xc84f(%eax),%xmm2
- DB 15,40,160,239,197,0,0 ; movaps 0xc5ef(%eax),%xmm4
+ DB 15,89,144,63,140,0,0 ; mulps 0x8c3f(%eax),%xmm2
+ DB 15,40,160,223,137,0,0 ; movaps 0x89df(%eax),%xmm4
DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,40,168,95,200,0,0 ; movaps 0xc85f(%eax),%xmm5
+ DB 15,40,168,79,140,0,0 ; movaps 0x8c4f(%eax),%xmm5
DB 15,88,205 ; addps %xmm5,%xmm1
DB 15,89,220 ; mulps %xmm4,%xmm3
DB 15,88,221 ; addps %xmm5,%xmm3
- DB 15,88,144,111,200,0,0 ; addps 0xc86f(%eax),%xmm2
- DB 15,89,144,127,200,0,0 ; mulps 0xc87f(%eax),%xmm2
- DB 15,89,136,143,200,0,0 ; mulps 0xc88f(%eax),%xmm1
+ DB 15,88,144,95,140,0,0 ; addps 0x8c5f(%eax),%xmm2
+ DB 15,89,144,111,140,0,0 ; mulps 0x8c6f(%eax),%xmm2
+ DB 15,89,136,127,140,0,0 ; mulps 0x8c7f(%eax),%xmm1
DB 15,88,202 ; addps %xmm2,%xmm1
- DB 15,89,152,159,200,0,0 ; mulps 0xc89f(%eax),%xmm3
+ DB 15,89,152,143,140,0,0 ; mulps 0x8c8f(%eax),%xmm3
DB 15,40,234 ; movaps %xmm2,%xmm5
DB 15,92,235 ; subps %xmm3,%xmm5
DB 15,40,193 ; movaps %xmm1,%xmm0
DB 15,89,192 ; mulps %xmm0,%xmm0
DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,152,175,200,0,0 ; movaps 0xc8af(%eax),%xmm3
+ DB 15,40,152,159,140,0,0 ; movaps 0x8c9f(%eax),%xmm3
DB 15,40,227 ; movaps %xmm3,%xmm4
DB 15,194,224,1 ; cmpltps %xmm0,%xmm4
- DB 15,40,176,191,200,0,0 ; movaps 0xc8bf(%eax),%xmm6
+ DB 15,40,176,175,140,0,0 ; movaps 0x8caf(%eax),%xmm6
DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,40,184,207,200,0,0 ; movaps 0xc8cf(%eax),%xmm7
+ DB 15,40,184,191,140,0,0 ; movaps 0x8cbf(%eax),%xmm7
DB 15,89,207 ; mulps %xmm7,%xmm1
DB 15,84,196 ; andps %xmm4,%xmm0
DB 15,85,225 ; andnps %xmm1,%xmm4
@@ -57319,8 +47023,8 @@ _sk_lab_to_xyz_sse2 LABEL PROC
DB 15,85,221 ; andnps %xmm5,%xmm3
DB 15,86,216 ; orps %xmm0,%xmm3
DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,89,160,223,200,0,0 ; mulps 0xc8df(%eax),%xmm4
- DB 15,89,152,239,200,0,0 ; mulps 0xc8ef(%eax),%xmm3
+ DB 15,89,160,207,140,0,0 ; mulps 0x8ccf(%eax),%xmm4
+ DB 15,89,152,223,140,0,0 ; mulps 0x8cdf(%eax),%xmm3
DB 141,65,4 ; lea 0x4(%ecx),%eax
DB 131,236,8 ; sub $0x8,%esp
DB 15,40,196 ; movaps %xmm4,%xmm0
@@ -57356,9 +47060,9 @@ _sk_load_a8_sse2 LABEL PROC
DB 102,15,110,4,62 ; movd (%esi,%edi,1),%xmm0
DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
DB 102,15,97,192 ; punpcklwd %xmm0,%xmm0
- DB 102,15,219,130,239,196,0,0 ; pand 0xc4ef(%edx),%xmm0
+ DB 102,15,219,130,223,136,0,0 ; pand 0x88df(%edx),%xmm0
DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,154,31,198,0,0 ; mulps 0xc61f(%edx),%xmm3
+ DB 15,89,154,15,138,0,0 ; mulps 0x8a0f(%edx),%xmm3
DB 141,80,8 ; lea 0x8(%eax),%edx
DB 131,236,8 ; sub $0x8,%esp
DB 15,87,192 ; xorps %xmm0,%xmm0
@@ -57421,9 +47125,9 @@ _sk_load_a8_dst_sse2 LABEL PROC
DB 102,15,110,36,55 ; movd (%edi,%esi,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,162,27,196,0,0 ; pand 0xc41b(%edx),%xmm4
+ DB 102,15,219,162,11,136,0,0 ; pand 0x880b(%edx),%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,75,197,0,0 ; mulps 0xc54b(%edx),%xmm4
+ DB 15,89,162,59,137,0,0 ; mulps 0x893b(%edx),%xmm4
DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
DB 141,80,8 ; lea 0x8(%eax),%edx
DB 131,236,8 ; sub $0x8,%esp
@@ -57499,7 +47203,7 @@ _sk_gather_a8_sse2 LABEL PROC
DB 102,15,96,193 ; punpcklbw %xmm1,%xmm0
DB 102,15,97,193 ; punpcklwd %xmm1,%xmm0
DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,153,78,196,0,0 ; mulps 0xc44e(%ecx),%xmm3
+ DB 15,89,153,62,136,0,0 ; mulps 0x883e(%ecx),%xmm3
DB 141,72,8 ; lea 0x8(%eax),%ecx
DB 131,236,8 ; sub $0x8,%esp
DB 15,87,192 ; xorps %xmm0,%xmm0
@@ -57531,7 +47235,7 @@ _sk_store_a8_sse2 LABEL PROC
DB 15,175,81,4 ; imul 0x4(%ecx),%edx
DB 3,23 ; add (%edi),%edx
DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 15,40,166,234,194,0,0 ; movaps 0xc2ea(%esi),%xmm4
+ DB 15,40,166,218,134,0,0 ; movaps 0x86da(%esi),%xmm4
DB 15,89,227 ; mulps %xmm3,%xmm4
DB 102,15,91,228 ; cvtps2dq %xmm4,%xmm4
DB 102,15,114,244,16 ; pslld $0x10,%xmm4
@@ -57566,7 +47270,7 @@ _sk_store_a8_sse2 LABEL PROC
DB 102,15,197,220,4 ; pextrw $0x4,%xmm4,%ebx
DB 136,92,58,2 ; mov %bl,0x2(%edx,%edi,1)
DB 102,15,112,228,212 ; pshufd $0xd4,%xmm4,%xmm4
- DB 102,15,219,166,250,197,0,0 ; pand 0xc5fa(%esi),%xmm4
+ DB 102,15,219,166,234,137,0,0 ; pand 0x89ea(%esi),%xmm4
DB 102,15,103,228 ; packuswb %xmm4,%xmm4
DB 102,15,103,228 ; packuswb %xmm4,%xmm4
DB 102,15,103,228 ; packuswb %xmm4,%xmm4
@@ -57600,12 +47304,12 @@ _sk_load_g8_sse2 LABEL PROC
DB 102,15,110,4,62 ; movd (%esi,%edi,1),%xmm0
DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
DB 102,15,97,192 ; punpcklwd %xmm0,%xmm0
- DB 102,15,219,130,40,194,0,0 ; pand 0xc228(%edx),%xmm0
+ DB 102,15,219,130,24,134,0,0 ; pand 0x8618(%edx),%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,130,88,195,0,0 ; mulps 0xc358(%edx),%xmm0
+ DB 15,89,130,72,135,0,0 ; mulps 0x8748(%edx),%xmm0
DB 141,112,8 ; lea 0x8(%eax),%esi
DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,154,104,193,0,0 ; movaps 0xc168(%edx),%xmm3
+ DB 15,40,154,88,133,0,0 ; movaps 0x8558(%edx),%xmm3
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 86 ; push %esi
@@ -57661,13 +47365,13 @@ _sk_load_g8_dst_sse2 LABEL PROC
DB 102,15,110,36,62 ; movd (%esi,%edi,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,162,124,193,0,0 ; pand 0xc17c(%edx),%xmm4
+ DB 102,15,219,162,108,133,0,0 ; pand 0x856c(%edx),%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,172,194,0,0 ; mulps 0xc2ac(%edx),%xmm4
+ DB 15,89,162,156,134,0,0 ; mulps 0x869c(%edx),%xmm4
DB 15,41,97,48 ; movaps %xmm4,0x30(%ecx)
DB 15,41,97,32 ; movaps %xmm4,0x20(%ecx)
DB 15,41,97,16 ; movaps %xmm4,0x10(%ecx)
- DB 15,40,162,188,192,0,0 ; movaps 0xc0bc(%edx),%xmm4
+ DB 15,40,162,172,132,0,0 ; movaps 0x84ac(%edx),%xmm4
DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
DB 141,80,8 ; lea 0x8(%eax),%edx
DB 131,236,8 ; sub $0x8,%esp
@@ -57744,10 +47448,10 @@ _sk_gather_g8_sse2 LABEL PROC
DB 102,15,96,193 ; punpcklbw %xmm1,%xmm0
DB 102,15,97,193 ; punpcklwd %xmm1,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,129,133,193,0,0 ; mulps 0xc185(%ecx),%xmm0
+ DB 15,89,129,117,133,0,0 ; mulps 0x8575(%ecx),%xmm0
DB 141,80,8 ; lea 0x8(%eax),%edx
DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,153,149,191,0,0 ; movaps 0xbf95(%ecx),%xmm3
+ DB 15,40,153,133,131,0,0 ; movaps 0x8385(%ecx),%xmm3
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 82 ; push %edx
@@ -57782,20 +47486,20 @@ _sk_load_565_sse2 LABEL PROC
DB 117,97 ; jne 4294 <_sk_load_565_sse2+0x8c>
DB 243,15,126,20,126 ; movq (%esi,%edi,2),%xmm2
DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,111,130,74,193,0,0 ; movdqa 0xc14a(%edx),%xmm0
+ DB 102,15,111,130,58,133,0,0 ; movdqa 0x853a(%edx),%xmm0
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,130,90,193,0,0 ; mulps 0xc15a(%edx),%xmm0
- DB 102,15,111,138,106,193,0,0 ; movdqa 0xc16a(%edx),%xmm1
+ DB 15,89,130,74,133,0,0 ; mulps 0x854a(%edx),%xmm0
+ DB 102,15,111,138,90,133,0,0 ; movdqa 0x855a(%edx),%xmm1
DB 102,15,219,202 ; pand %xmm2,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,138,122,193,0,0 ; mulps 0xc17a(%edx),%xmm1
- DB 102,15,219,146,138,193,0,0 ; pand 0xc18a(%edx),%xmm2
+ DB 15,89,138,106,133,0,0 ; mulps 0x856a(%edx),%xmm1
+ DB 102,15,219,146,122,133,0,0 ; pand 0x857a(%edx),%xmm2
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,146,154,193,0,0 ; mulps 0xc19a(%edx),%xmm2
+ DB 15,89,146,138,133,0,0 ; mulps 0x858a(%edx),%xmm2
DB 141,112,8 ; lea 0x8(%eax),%esi
DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,154,74,191,0,0 ; movaps 0xbf4a(%edx),%xmm3
+ DB 15,40,154,58,131,0,0 ; movaps 0x833a(%edx),%xmm3
DB 86 ; push %esi
DB 81 ; push %ecx
DB 255,80,4 ; call *0x4(%eax)
@@ -57847,21 +47551,21 @@ _sk_load_565_dst_sse2 LABEL PROC
DB 117,113 ; jne 4374 <_sk_load_565_dst_sse2+0x9c>
DB 243,15,126,36,126 ; movq (%esi,%edi,2),%xmm4
DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,111,170,122,192,0,0 ; movdqa 0xc07a(%edx),%xmm5
+ DB 102,15,111,170,106,132,0,0 ; movdqa 0x846a(%edx),%xmm5
DB 102,15,219,236 ; pand %xmm4,%xmm5
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,138,192,0,0 ; mulps 0xc08a(%edx),%xmm5
+ DB 15,89,170,122,132,0,0 ; mulps 0x847a(%edx),%xmm5
DB 15,41,105,16 ; movaps %xmm5,0x10(%ecx)
- DB 102,15,111,170,154,192,0,0 ; movdqa 0xc09a(%edx),%xmm5
+ DB 102,15,111,170,138,132,0,0 ; movdqa 0x848a(%edx),%xmm5
DB 102,15,219,236 ; pand %xmm4,%xmm5
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,170,192,0,0 ; mulps 0xc0aa(%edx),%xmm5
+ DB 15,89,170,154,132,0,0 ; mulps 0x849a(%edx),%xmm5
DB 15,41,105,32 ; movaps %xmm5,0x20(%ecx)
- DB 102,15,219,162,186,192,0,0 ; pand 0xc0ba(%edx),%xmm4
+ DB 102,15,219,162,170,132,0,0 ; pand 0x84aa(%edx),%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,202,192,0,0 ; mulps 0xc0ca(%edx),%xmm4
+ DB 15,89,162,186,132,0,0 ; mulps 0x84ba(%edx),%xmm4
DB 15,41,97,48 ; movaps %xmm4,0x30(%ecx)
- DB 15,40,162,122,190,0,0 ; movaps 0xbe7a(%edx),%xmm4
+ DB 15,40,162,106,130,0,0 ; movaps 0x826a(%edx),%xmm4
DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
DB 141,80,8 ; lea 0x8(%eax),%edx
DB 131,236,8 ; sub $0x8,%esp
@@ -57931,20 +47635,20 @@ _sk_gather_565_sse2 LABEL PROC
DB 102,15,196,209,3 ; pinsrw $0x3,%ecx,%xmm2
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,111,130,40,191,0,0 ; movdqa 0xbf28(%edx),%xmm0
+ DB 102,15,111,130,24,131,0,0 ; movdqa 0x8318(%edx),%xmm0
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,130,56,191,0,0 ; mulps 0xbf38(%edx),%xmm0
- DB 102,15,111,138,72,191,0,0 ; movdqa 0xbf48(%edx),%xmm1
+ DB 15,89,130,40,131,0,0 ; mulps 0x8328(%edx),%xmm0
+ DB 102,15,111,138,56,131,0,0 ; movdqa 0x8338(%edx),%xmm1
DB 102,15,219,202 ; pand %xmm2,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,138,88,191,0,0 ; mulps 0xbf58(%edx),%xmm1
- DB 102,15,219,146,104,191,0,0 ; pand 0xbf68(%edx),%xmm2
+ DB 15,89,138,72,131,0,0 ; mulps 0x8348(%edx),%xmm1
+ DB 102,15,219,146,88,131,0,0 ; pand 0x8358(%edx),%xmm2
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,146,120,191,0,0 ; mulps 0xbf78(%edx),%xmm2
+ DB 15,89,146,104,131,0,0 ; mulps 0x8368(%edx),%xmm2
DB 141,72,8 ; lea 0x8(%eax),%ecx
DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,154,40,189,0,0 ; movaps 0xbd28(%edx),%xmm3
+ DB 15,40,154,24,129,0,0 ; movaps 0x8118(%edx),%xmm3
DB 81 ; push %ecx
DB 255,117,8 ; pushl 0x8(%ebp)
DB 255,80,4 ; call *0x4(%eax)
@@ -57970,8 +47674,8 @@ _sk_store_565_sse2 LABEL PROC
DB 1,210 ; add %edx,%edx
DB 3,22 ; add (%esi),%edx
DB 139,49 ; mov (%ecx),%esi
- DB 15,40,167,165,192,0,0 ; movaps 0xc0a5(%edi),%xmm4
- DB 15,40,175,181,192,0,0 ; movaps 0xc0b5(%edi),%xmm5
+ DB 15,40,167,149,132,0,0 ; movaps 0x8495(%edi),%xmm4
+ DB 15,40,175,165,132,0,0 ; movaps 0x84a5(%edi),%xmm5
DB 139,89,8 ; mov 0x8(%ecx),%ebx
DB 15,40,240 ; movaps %xmm0,%xmm6
DB 15,89,244 ; mulps %xmm4,%xmm6
@@ -58049,21 +47753,21 @@ _sk_load_4444_sse2 LABEL PROC
DB 117,112 ; jne 461a <_sk_load_4444_sse2+0x9b>
DB 243,15,126,28,126 ; movq (%esi,%edi,2),%xmm3
DB 102,15,97,216 ; punpcklwd %xmm0,%xmm3
- DB 102,15,111,130,227,191,0,0 ; movdqa 0xbfe3(%edx),%xmm0
+ DB 102,15,111,130,211,131,0,0 ; movdqa 0x83d3(%edx),%xmm0
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,130,243,191,0,0 ; mulps 0xbff3(%edx),%xmm0
- DB 102,15,111,138,3,192,0,0 ; movdqa 0xc003(%edx),%xmm1
+ DB 15,89,130,227,131,0,0 ; mulps 0x83e3(%edx),%xmm0
+ DB 102,15,111,138,243,131,0,0 ; movdqa 0x83f3(%edx),%xmm1
DB 102,15,219,203 ; pand %xmm3,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,138,19,192,0,0 ; mulps 0xc013(%edx),%xmm1
- DB 102,15,111,146,35,192,0,0 ; movdqa 0xc023(%edx),%xmm2
+ DB 15,89,138,3,132,0,0 ; mulps 0x8403(%edx),%xmm1
+ DB 102,15,111,146,19,132,0,0 ; movdqa 0x8413(%edx),%xmm2
DB 102,15,219,211 ; pand %xmm3,%xmm2
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,146,51,192,0,0 ; mulps 0xc033(%edx),%xmm2
- DB 102,15,219,154,67,192,0,0 ; pand 0xc043(%edx),%xmm3
+ DB 15,89,146,35,132,0,0 ; mulps 0x8423(%edx),%xmm2
+ DB 102,15,219,154,51,132,0,0 ; pand 0x8433(%edx),%xmm3
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,154,83,192,0,0 ; mulps 0xc053(%edx),%xmm3
+ DB 15,89,154,67,132,0,0 ; mulps 0x8443(%edx),%xmm3
DB 141,80,8 ; lea 0x8(%eax),%edx
DB 131,236,8 ; sub $0x8,%esp
DB 82 ; push %edx
@@ -58117,24 +47821,24 @@ _sk_load_4444_dst_sse2 LABEL PROC
DB 15,133,128,0,0,0 ; jne 470d <_sk_load_4444_dst_sse2+0xaf>
DB 243,15,126,36,126 ; movq (%esi,%edi,2),%xmm4
DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,111,170,4,191,0,0 ; movdqa 0xbf04(%edx),%xmm5
+ DB 102,15,111,170,244,130,0,0 ; movdqa 0x82f4(%edx),%xmm5
DB 102,15,219,236 ; pand %xmm4,%xmm5
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,20,191,0,0 ; mulps 0xbf14(%edx),%xmm5
+ DB 15,89,170,4,131,0,0 ; mulps 0x8304(%edx),%xmm5
DB 15,41,105,16 ; movaps %xmm5,0x10(%ecx)
- DB 102,15,111,170,36,191,0,0 ; movdqa 0xbf24(%edx),%xmm5
+ DB 102,15,111,170,20,131,0,0 ; movdqa 0x8314(%edx),%xmm5
DB 102,15,219,236 ; pand %xmm4,%xmm5
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,52,191,0,0 ; mulps 0xbf34(%edx),%xmm5
+ DB 15,89,170,36,131,0,0 ; mulps 0x8324(%edx),%xmm5
DB 15,41,105,32 ; movaps %xmm5,0x20(%ecx)
- DB 102,15,111,170,68,191,0,0 ; movdqa 0xbf44(%edx),%xmm5
+ DB 102,15,111,170,52,131,0,0 ; movdqa 0x8334(%edx),%xmm5
DB 102,15,219,236 ; pand %xmm4,%xmm5
DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,84,191,0,0 ; mulps 0xbf54(%edx),%xmm5
+ DB 15,89,170,68,131,0,0 ; mulps 0x8344(%edx),%xmm5
DB 15,41,105,48 ; movaps %xmm5,0x30(%ecx)
- DB 102,15,219,162,100,191,0,0 ; pand 0xbf64(%edx),%xmm4
+ DB 102,15,219,162,84,131,0,0 ; pand 0x8354(%edx),%xmm4
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,116,191,0,0 ; mulps 0xbf74(%edx),%xmm4
+ DB 15,89,162,100,131,0,0 ; mulps 0x8364(%edx),%xmm4
DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
DB 141,80,8 ; lea 0x8(%eax),%edx
DB 131,236,8 ; sub $0x8,%esp
@@ -58204,21 +47908,21 @@ _sk_gather_4444_sse2 LABEL PROC
DB 89 ; pop %ecx
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,97,216 ; punpcklwd %xmm0,%xmm3
- DB 102,15,111,129,150,189,0,0 ; movdqa 0xbd96(%ecx),%xmm0
+ DB 102,15,111,129,134,129,0,0 ; movdqa 0x8186(%ecx),%xmm0
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,129,166,189,0,0 ; mulps 0xbda6(%ecx),%xmm0
- DB 102,15,111,137,182,189,0,0 ; movdqa 0xbdb6(%ecx),%xmm1
+ DB 15,89,129,150,129,0,0 ; mulps 0x8196(%ecx),%xmm0
+ DB 102,15,111,137,166,129,0,0 ; movdqa 0x81a6(%ecx),%xmm1
DB 102,15,219,203 ; pand %xmm3,%xmm1
DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,137,198,189,0,0 ; mulps 0xbdc6(%ecx),%xmm1
- DB 102,15,111,145,214,189,0,0 ; movdqa 0xbdd6(%ecx),%xmm2
+ DB 15,89,137,182,129,0,0 ; mulps 0x81b6(%ecx),%xmm1
+ DB 102,15,111,145,198,129,0,0 ; movdqa 0x81c6(%ecx),%xmm2
DB 102,15,219,211 ; pand %xmm3,%xmm2
DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,145,230,189,0,0 ; mulps 0xbde6(%ecx),%xmm2
- DB 102,15,219,153,246,189,0,0 ; pand 0xbdf6(%ecx),%xmm3
+ DB 15,89,145,214,129,0,0 ; mulps 0x81d6(%ecx),%xmm2
+ DB 102,15,219,153,230,129,0,0 ; pand 0x81e6(%ecx),%xmm3
DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,153,6,190,0,0 ; mulps 0xbe06(%ecx),%xmm3
+ DB 15,89,153,246,129,0,0 ; mulps 0x81f6(%ecx),%xmm3
DB 141,72,8 ; lea 0x8(%eax),%ecx
DB 131,236,8 ; sub $0x8,%esp
DB 81 ; push %ecx
@@ -58246,7 +47950,7 @@ _sk_store_4444_sse2 LABEL PROC
DB 1,210 ; add %edx,%edx
DB 3,22 ; add (%esi),%edx
DB 139,49 ; mov (%ecx),%esi
- DB 15,40,167,153,189,0,0 ; movaps 0xbd99(%edi),%xmm4
+ DB 15,40,167,137,129,0,0 ; movaps 0x8189(%edi),%xmm4
DB 139,89,8 ; mov 0x8(%ecx),%ebx
DB 15,40,232 ; movaps %xmm0,%xmm5
DB 15,89,236 ; mulps %xmm4,%xmm5
@@ -58329,11 +48033,11 @@ _sk_load_8888_sse2 LABEL PROC
DB 139,57 ; mov (%ecx),%edi
DB 117,102 ; jne 49cc <_sk_load_8888_sse2+0x92>
DB 243,15,111,28,190 ; movdqu (%esi,%edi,4),%xmm3
- DB 102,15,111,146,216,184,0,0 ; movdqa 0xb8d8(%edx),%xmm2
+ DB 102,15,111,146,200,124,0,0 ; movdqa 0x7cc8(%edx),%xmm2
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,162,8,186,0,0 ; movaps 0xba08(%edx),%xmm4
+ DB 15,40,162,248,125,0,0 ; movaps 0x7df8(%edx),%xmm4
DB 15,89,196 ; mulps %xmm4,%xmm0
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
DB 102,15,114,209,8 ; psrld $0x8,%xmm1
@@ -58396,11 +48100,11 @@ _sk_load_8888_dst_sse2 LABEL PROC
DB 139,57 ; mov (%ecx),%edi
DB 117,118 ; jne 4aa3 <_sk_load_8888_dst_sse2+0xa2>
DB 243,15,111,36,190 ; movdqu (%esi,%edi,4),%xmm4
- DB 102,15,111,170,17,184,0,0 ; movdqa 0xb811(%edx),%xmm5
+ DB 102,15,111,170,1,124,0,0 ; movdqa 0x7c01(%edx),%xmm5
DB 102,15,111,244 ; movdqa %xmm4,%xmm6
DB 102,15,219,245 ; pand %xmm5,%xmm6
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,40,186,65,185,0,0 ; movaps 0xb941(%edx),%xmm7
+ DB 15,40,186,49,125,0,0 ; movaps 0x7d31(%edx),%xmm7
DB 15,89,247 ; mulps %xmm7,%xmm6
DB 15,41,113,16 ; movaps %xmm6,0x10(%ecx)
DB 102,15,111,244 ; movdqa %xmm4,%xmm6
@@ -58480,11 +48184,11 @@ _sk_gather_8888_sse2 LABEL PROC
DB 102,15,98,202 ; punpckldq %xmm2,%xmm1
DB 102,15,98,216 ; punpckldq %xmm0,%xmm3
DB 102,15,108,217 ; punpcklqdq %xmm1,%xmm3
- DB 102,15,111,145,206,182,0,0 ; movdqa 0xb6ce(%ecx),%xmm2
+ DB 102,15,111,145,190,122,0,0 ; movdqa 0x7abe(%ecx),%xmm2
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
DB 102,15,219,194 ; pand %xmm2,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,161,254,183,0,0 ; movaps 0xb7fe(%ecx),%xmm4
+ DB 15,40,161,238,123,0,0 ; movaps 0x7bee(%ecx),%xmm4
DB 15,89,196 ; mulps %xmm4,%xmm0
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
DB 102,15,114,209,8 ; psrld $0x8,%xmm1
@@ -58526,7 +48230,7 @@ _sk_store_8888_sse2 LABEL PROC
DB 193,226,2 ; shl $0x2,%edx
DB 3,22 ; add (%esi),%edx
DB 139,49 ; mov (%ecx),%esi
- DB 15,40,167,99,182,0,0 ; movaps 0xb663(%edi),%xmm4
+ DB 15,40,167,83,122,0,0 ; movaps 0x7a53(%edi),%xmm4
DB 139,89,8 ; mov 0x8(%ecx),%ebx
DB 15,40,232 ; movaps %xmm0,%xmm5
DB 15,89,236 ; mulps %xmm4,%xmm5
@@ -58595,11 +48299,11 @@ _sk_load_bgra_sse2 LABEL PROC
DB 139,57 ; mov (%ecx),%edi
DB 117,102 ; jne 4d07 <_sk_load_bgra_sse2+0x92>
DB 243,15,111,28,190 ; movdqu (%esi,%edi,4),%xmm3
- DB 102,15,111,130,157,181,0,0 ; movdqa 0xb59d(%edx),%xmm0
+ DB 102,15,111,130,141,121,0,0 ; movdqa 0x798d(%edx),%xmm0
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
DB 102,15,219,200 ; pand %xmm0,%xmm1
DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 15,40,162,205,182,0,0 ; movaps 0xb6cd(%edx),%xmm4
+ DB 15,40,162,189,122,0,0 ; movaps 0x7abd(%edx),%xmm4
DB 15,89,212 ; mulps %xmm4,%xmm2
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
DB 102,15,114,209,8 ; psrld $0x8,%xmm1
@@ -58662,11 +48366,11 @@ _sk_load_bgra_dst_sse2 LABEL PROC
DB 139,57 ; mov (%ecx),%edi
DB 117,118 ; jne 4dde <_sk_load_bgra_dst_sse2+0xa2>
DB 243,15,111,36,190 ; movdqu (%esi,%edi,4),%xmm4
- DB 102,15,111,170,214,180,0,0 ; movdqa 0xb4d6(%edx),%xmm5
+ DB 102,15,111,170,198,120,0,0 ; movdqa 0x78c6(%edx),%xmm5
DB 102,15,111,244 ; movdqa %xmm4,%xmm6
DB 102,15,219,245 ; pand %xmm5,%xmm6
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,40,186,6,182,0,0 ; movaps 0xb606(%edx),%xmm7
+ DB 15,40,186,246,121,0,0 ; movaps 0x79f6(%edx),%xmm7
DB 15,89,247 ; mulps %xmm7,%xmm6
DB 15,41,113,48 ; movaps %xmm6,0x30(%ecx)
DB 102,15,111,244 ; movdqa %xmm4,%xmm6
@@ -58746,11 +48450,11 @@ _sk_gather_bgra_sse2 LABEL PROC
DB 102,15,98,202 ; punpckldq %xmm2,%xmm1
DB 102,15,98,216 ; punpckldq %xmm0,%xmm3
DB 102,15,108,217 ; punpcklqdq %xmm1,%xmm3
- DB 102,15,111,129,147,179,0,0 ; movdqa 0xb393(%ecx),%xmm0
+ DB 102,15,111,129,131,119,0,0 ; movdqa 0x7783(%ecx),%xmm0
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
DB 102,15,219,200 ; pand %xmm0,%xmm1
DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 15,40,161,195,180,0,0 ; movaps 0xb4c3(%ecx),%xmm4
+ DB 15,40,161,179,120,0,0 ; movaps 0x78b3(%ecx),%xmm4
DB 15,89,212 ; mulps %xmm4,%xmm2
DB 102,15,111,203 ; movdqa %xmm3,%xmm1
DB 102,15,114,209,8 ; psrld $0x8,%xmm1
@@ -58792,7 +48496,7 @@ _sk_store_bgra_sse2 LABEL PROC
DB 193,226,2 ; shl $0x2,%edx
DB 3,22 ; add (%esi),%edx
DB 139,49 ; mov (%ecx),%esi
- DB 15,40,167,40,179,0,0 ; movaps 0xb328(%edi),%xmm4
+ DB 15,40,167,24,119,0,0 ; movaps 0x7718(%edi),%xmm4
DB 139,89,8 ; mov 0x8(%ecx),%ebx
DB 15,40,234 ; movaps %xmm2,%xmm5
DB 15,89,236 ; mulps %xmm4,%xmm5
@@ -58889,11 +48593,11 @@ _sk_load_f16_sse2 LABEL PROC
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,170,66,182,0,0 ; movdqa 0xb642(%edx),%xmm5
+ DB 102,15,111,170,50,122,0,0 ; movdqa 0x7a32(%edx),%xmm5
DB 102,15,111,241 ; movdqa %xmm1,%xmm6
DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 102,15,219,138,82,182,0,0 ; pand 0xb652(%edx),%xmm1
- DB 102,15,111,130,98,182,0,0 ; movdqa 0xb662(%edx),%xmm0
+ DB 102,15,219,138,66,122,0,0 ; pand 0x7a42(%edx),%xmm1
+ DB 102,15,111,130,82,122,0,0 ; movdqa 0x7a52(%edx),%xmm0
DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
DB 102,15,114,246,16 ; pslld $0x10,%xmm6
DB 102,15,111,216 ; movdqa %xmm0,%xmm3
@@ -58905,7 +48609,7 @@ _sk_load_f16_sse2 LABEL PROC
DB 102,15,239,255 ; pxor %xmm7,%xmm7
DB 102,15,111,212 ; movdqa %xmm4,%xmm2
DB 102,15,219,213 ; pand %xmm5,%xmm2
- DB 102,15,111,154,82,182,0,0 ; movdqa 0xb652(%edx),%xmm3
+ DB 102,15,111,154,66,122,0,0 ; movdqa 0x7a42(%edx),%xmm3
DB 102,15,219,227 ; pand %xmm3,%xmm4
DB 102,15,114,242,16 ; pslld $0x10,%xmm2
DB 102,15,102,196 ; pcmpgtd %xmm4,%xmm0
@@ -58918,7 +48622,7 @@ _sk_load_f16_sse2 LABEL PROC
DB 102,15,219,253 ; pand %xmm5,%xmm7
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,111,146,98,182,0,0 ; movdqa 0xb662(%edx),%xmm2
+ DB 102,15,111,146,82,122,0,0 ; movdqa 0x7a52(%edx),%xmm2
DB 102,15,102,208 ; pcmpgtd %xmm0,%xmm2
DB 102,15,114,240,13 ; pslld $0xd,%xmm0
DB 102,15,235,199 ; por %xmm7,%xmm0
@@ -58933,7 +48637,7 @@ _sk_load_f16_sse2 LABEL PROC
DB 102,15,127,93,184 ; movdqa %xmm3,-0x48(%ebp)
DB 102,15,114,247,13 ; pslld $0xd,%xmm7
DB 102,15,235,253 ; por %xmm5,%xmm7
- DB 102,15,111,154,114,182,0,0 ; movdqa 0xb672(%edx),%xmm3
+ DB 102,15,111,154,98,122,0,0 ; movdqa 0x7a62(%edx),%xmm3
DB 102,15,254,203 ; paddd %xmm3,%xmm1
DB 102,15,254,227 ; paddd %xmm3,%xmm4
DB 102,15,254,195 ; paddd %xmm3,%xmm0
@@ -59020,18 +48724,18 @@ _sk_load_f16_dst_sse2 LABEL PROC
DB 102,15,126,85,232 ; movd %xmm2,-0x18(%ebp)
DB 102,15,239,210 ; pxor %xmm2,%xmm2
DB 102,15,97,202 ; punpcklwd %xmm2,%xmm1
- DB 102,15,111,186,37,180,0,0 ; movdqa 0xb425(%edx),%xmm7
+ DB 102,15,111,186,21,120,0,0 ; movdqa 0x7815(%edx),%xmm7
DB 102,15,111,209 ; movdqa %xmm1,%xmm2
DB 102,15,219,215 ; pand %xmm7,%xmm2
- DB 102,15,111,154,53,180,0,0 ; movdqa 0xb435(%edx),%xmm3
+ DB 102,15,111,154,37,120,0,0 ; movdqa 0x7825(%edx),%xmm3
DB 102,15,219,203 ; pand %xmm3,%xmm1
- DB 102,15,111,162,69,180,0,0 ; movdqa 0xb445(%edx),%xmm4
+ DB 102,15,111,162,53,120,0,0 ; movdqa 0x7835(%edx),%xmm4
DB 102,15,114,242,16 ; pslld $0x10,%xmm2
DB 102,15,111,236 ; movdqa %xmm4,%xmm5
DB 102,15,102,233 ; pcmpgtd %xmm1,%xmm5
DB 102,15,114,241,13 ; pslld $0xd,%xmm1
DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,111,146,85,180,0,0 ; movdqa 0xb455(%edx),%xmm2
+ DB 102,15,111,146,69,120,0,0 ; movdqa 0x7845(%edx),%xmm2
DB 102,15,127,85,184 ; movdqa %xmm2,-0x48(%ebp)
DB 102,15,254,202 ; paddd %xmm2,%xmm1
DB 102,15,223,233 ; pandn %xmm1,%xmm5
@@ -59162,11 +48866,11 @@ _sk_gather_f16_sse2 LABEL PROC
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,169,185,177,0,0 ; movdqa 0xb1b9(%ecx),%xmm5
+ DB 102,15,111,169,169,117,0,0 ; movdqa 0x75a9(%ecx),%xmm5
DB 102,15,111,241 ; movdqa %xmm1,%xmm6
DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 102,15,219,137,201,177,0,0 ; pand 0xb1c9(%ecx),%xmm1
- DB 102,15,111,129,217,177,0,0 ; movdqa 0xb1d9(%ecx),%xmm0
+ DB 102,15,219,137,185,117,0,0 ; pand 0x75b9(%ecx),%xmm1
+ DB 102,15,111,129,201,117,0,0 ; movdqa 0x75c9(%ecx),%xmm0
DB 102,15,114,246,16 ; pslld $0x10,%xmm6
DB 102,15,111,216 ; movdqa %xmm0,%xmm3
DB 102,15,102,217 ; pcmpgtd %xmm1,%xmm3
@@ -59177,7 +48881,7 @@ _sk_gather_f16_sse2 LABEL PROC
DB 102,15,239,255 ; pxor %xmm7,%xmm7
DB 102,15,111,212 ; movdqa %xmm4,%xmm2
DB 102,15,219,213 ; pand %xmm5,%xmm2
- DB 102,15,111,153,201,177,0,0 ; movdqa 0xb1c9(%ecx),%xmm3
+ DB 102,15,111,153,185,117,0,0 ; movdqa 0x75b9(%ecx),%xmm3
DB 102,15,219,227 ; pand %xmm3,%xmm4
DB 102,15,114,242,16 ; pslld $0x10,%xmm2
DB 102,15,111,240 ; movdqa %xmm0,%xmm6
@@ -59191,7 +48895,7 @@ _sk_gather_f16_sse2 LABEL PROC
DB 102,15,219,253 ; pand %xmm5,%xmm7
DB 102,15,219,195 ; pand %xmm3,%xmm0
DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,111,145,217,177,0,0 ; movdqa 0xb1d9(%ecx),%xmm2
+ DB 102,15,111,145,201,117,0,0 ; movdqa 0x75c9(%ecx),%xmm2
DB 102,15,111,218 ; movdqa %xmm2,%xmm3
DB 102,15,102,216 ; pcmpgtd %xmm0,%xmm3
DB 102,15,114,240,13 ; pslld $0xd,%xmm0
@@ -59200,12 +48904,12 @@ _sk_gather_f16_sse2 LABEL PROC
DB 102,15,239,246 ; pxor %xmm6,%xmm6
DB 102,15,97,254 ; punpcklwd %xmm6,%xmm7
DB 102,15,219,239 ; pand %xmm7,%xmm5
- DB 102,15,219,185,201,177,0,0 ; pand 0xb1c9(%ecx),%xmm7
+ DB 102,15,219,185,185,117,0,0 ; pand 0x75b9(%ecx),%xmm7
DB 102,15,114,245,16 ; pslld $0x10,%xmm5
DB 102,15,102,215 ; pcmpgtd %xmm7,%xmm2
DB 102,15,114,247,13 ; pslld $0xd,%xmm7
DB 102,15,235,253 ; por %xmm5,%xmm7
- DB 102,15,111,169,233,177,0,0 ; movdqa 0xb1e9(%ecx),%xmm5
+ DB 102,15,111,169,217,117,0,0 ; movdqa 0x75d9(%ecx),%xmm5
DB 102,15,254,205 ; paddd %xmm5,%xmm1
DB 102,15,254,229 ; paddd %xmm5,%xmm4
DB 102,15,254,197 ; paddd %xmm5,%xmm0
@@ -59242,22 +48946,22 @@ _sk_store_f16_sse2 LABEL PROC
DB 102,15,111,209 ; movdqa %xmm1,%xmm2
DB 232,0,0,0,0 ; call 560c <_sk_store_f16_sse2+0x19>
DB 88 ; pop %eax
- DB 102,15,111,152,52,176,0,0 ; movdqa 0xb034(%eax),%xmm3
+ DB 102,15,111,152,36,116,0,0 ; movdqa 0x7424(%eax),%xmm3
DB 102,15,111,224 ; movdqa %xmm0,%xmm4
DB 102,15,219,227 ; pand %xmm3,%xmm4
- DB 102,15,111,136,100,176,0,0 ; movdqa 0xb064(%eax),%xmm1
+ DB 102,15,111,136,84,116,0,0 ; movdqa 0x7454(%eax),%xmm1
DB 102,15,127,77,232 ; movdqa %xmm1,-0x18(%ebp)
DB 102,15,111,240 ; movdqa %xmm0,%xmm6
DB 102,15,114,246,3 ; pslld $0x3,%xmm6
DB 102,15,219,241 ; pand %xmm1,%xmm6
DB 102,15,254,244 ; paddd %xmm4,%xmm6
- DB 102,15,111,184,68,176,0,0 ; movdqa 0xb044(%eax),%xmm7
+ DB 102,15,111,184,52,116,0,0 ; movdqa 0x7434(%eax),%xmm7
DB 102,15,127,69,168 ; movdqa %xmm0,-0x58(%ebp)
DB 102,15,219,199 ; pand %xmm7,%xmm0
- DB 102,15,111,168,84,176,0,0 ; movdqa 0xb054(%eax),%xmm5
+ DB 102,15,111,168,68,116,0,0 ; movdqa 0x7444(%eax),%xmm5
DB 102,15,111,205 ; movdqa %xmm5,%xmm1
DB 102,15,102,200 ; pcmpgtd %xmm0,%xmm1
- DB 102,15,111,128,228,172,0,0 ; movdqa 0xace4(%eax),%xmm0
+ DB 102,15,111,128,212,112,0,0 ; movdqa 0x70d4(%eax),%xmm0
DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
DB 102,15,254,240 ; paddd %xmm0,%xmm6
DB 102,15,114,230,16 ; psrad $0x10,%xmm6
@@ -59389,7 +49093,7 @@ _sk_load_u16_be_sse2 LABEL PROC
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,162,247,171,0,0 ; movaps 0xabf7(%edx),%xmm4
+ DB 15,40,162,231,111,0,0 ; movaps 0x6fe7(%edx),%xmm4
DB 15,89,196 ; mulps %xmm4,%xmm0
DB 102,15,111,205 ; movdqa %xmm5,%xmm1
DB 102,15,113,241,8 ; psllw $0x8,%xmm1
@@ -59491,7 +49195,7 @@ _sk_load_rgb_u16_be_sse2 LABEL PROC
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,170,144,170,0,0 ; movaps 0xaa90(%edx),%xmm5
+ DB 15,40,170,128,110,0,0 ; movaps 0x6e80(%edx),%xmm5
DB 15,89,197 ; mulps %xmm5,%xmm0
DB 102,15,111,204 ; movdqa %xmm4,%xmm1
DB 102,15,113,241,8 ; psllw $0x8,%xmm1
@@ -59517,7 +49221,7 @@ _sk_load_rgb_u16_be_sse2 LABEL PROC
DB 15,89,213 ; mulps %xmm5,%xmm2
DB 141,112,8 ; lea 0x8(%eax),%esi
DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,154,32,168,0,0 ; movaps 0xa820(%edx),%xmm3
+ DB 15,40,154,16,108,0,0 ; movaps 0x6c10(%edx),%xmm3
DB 86 ; push %esi
DB 81 ; push %ecx
DB 255,80,4 ; call *0x4(%eax)
@@ -59562,7 +49266,7 @@ _sk_store_u16_be_sse2 LABEL PROC
DB 1,210 ; add %edx,%edx
DB 3,22 ; add (%esi),%edx
DB 139,49 ; mov (%ecx),%esi
- DB 15,40,183,236,171,0,0 ; movaps 0xabec(%edi),%xmm6
+ DB 15,40,183,220,111,0,0 ; movaps 0x6fdc(%edi),%xmm6
DB 139,121,8 ; mov 0x8(%ecx),%edi
DB 193,230,2 ; shl $0x2,%esi
DB 15,40,224 ; movaps %xmm0,%xmm4
@@ -59882,7 +49586,7 @@ _sk_repeat_x_sse2 LABEL PROC
DB 243,15,91,230 ; cvttps2dq %xmm6,%xmm4
DB 15,91,252 ; cvtdq2ps %xmm4,%xmm7
DB 15,194,247,1 ; cmpltps %xmm7,%xmm6
- DB 15,84,177,54,163,0,0 ; andps 0xa336(%ecx),%xmm6
+ DB 15,84,177,38,103,0,0 ; andps 0x6726(%ecx),%xmm6
DB 15,87,228 ; xorps %xmm4,%xmm4
DB 15,92,254 ; subps %xmm6,%xmm7
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
@@ -59918,7 +49622,7 @@ _sk_repeat_y_sse2 LABEL PROC
DB 243,15,91,230 ; cvttps2dq %xmm6,%xmm4
DB 15,91,252 ; cvtdq2ps %xmm4,%xmm7
DB 15,194,247,1 ; cmpltps %xmm7,%xmm6
- DB 15,84,177,208,162,0,0 ; andps 0xa2d0(%ecx),%xmm6
+ DB 15,84,177,192,102,0,0 ; andps 0x66c0(%ecx),%xmm6
DB 15,87,228 ; xorps %xmm4,%xmm4
DB 15,92,254 ; subps %xmm6,%xmm7
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
@@ -59952,13 +49656,13 @@ _sk_mirror_x_sse2 LABEL PROC
DB 15,40,229 ; movaps %xmm5,%xmm4
DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
DB 15,92,196 ; subps %xmm4,%xmm0
- DB 243,15,89,177,106,170,0,0 ; mulss 0xaa6a(%ecx),%xmm6
+ DB 243,15,89,177,186,109,0,0 ; mulss 0x6dba(%ecx),%xmm6
DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
DB 15,89,240 ; mulps %xmm0,%xmm6
DB 243,15,91,254 ; cvttps2dq %xmm6,%xmm7
DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
DB 15,194,247,1 ; cmpltps %xmm7,%xmm6
- DB 15,84,177,106,162,0,0 ; andps 0xa26a(%ecx),%xmm6
+ DB 15,84,177,90,102,0,0 ; andps 0x665a(%ecx),%xmm6
DB 15,92,254 ; subps %xmm6,%xmm7
DB 243,15,88,237 ; addss %xmm5,%xmm5
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
@@ -59996,13 +49700,13 @@ _sk_mirror_y_sse2 LABEL PROC
DB 15,40,229 ; movaps %xmm5,%xmm4
DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
DB 15,92,204 ; subps %xmm4,%xmm1
- DB 243,15,89,177,229,169,0,0 ; mulss 0xa9e5(%ecx),%xmm6
+ DB 243,15,89,177,53,109,0,0 ; mulss 0x6d35(%ecx),%xmm6
DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
DB 15,89,241 ; mulps %xmm1,%xmm6
DB 243,15,91,254 ; cvttps2dq %xmm6,%xmm7
DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
DB 15,194,247,1 ; cmpltps %xmm7,%xmm6
- DB 15,84,177,229,161,0,0 ; andps 0xa1e5(%ecx),%xmm6
+ DB 15,84,177,213,101,0,0 ; andps 0x65d5(%ecx),%xmm6
DB 15,92,254 ; subps %xmm6,%xmm7
DB 243,15,88,237 ; addss %xmm5,%xmm5
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
@@ -60036,7 +49740,7 @@ _sk_clamp_x_1_sse2 LABEL PROC
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 15,87,228 ; xorps %xmm4,%xmm4
DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,93,160,96,161,0,0 ; minps 0xa160(%eax),%xmm4
+ DB 15,93,160,80,101,0,0 ; minps 0x6550(%eax),%xmm4
DB 141,65,4 ; lea 0x4(%ecx),%eax
DB 131,236,8 ; sub $0x8,%esp
DB 15,40,196 ; movaps %xmm4,%xmm0
@@ -60059,7 +49763,7 @@ _sk_repeat_x_1_sse2 LABEL PROC
DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
DB 15,40,232 ; movaps %xmm0,%xmm5
DB 15,194,236,1 ; cmpltps %xmm4,%xmm5
- DB 15,84,168,48,161,0,0 ; andps 0xa130(%eax),%xmm5
+ DB 15,84,168,32,101,0,0 ; andps 0x6520(%eax),%xmm5
DB 15,92,229 ; subps %xmm5,%xmm4
DB 15,92,196 ; subps %xmm4,%xmm0
DB 141,65,4 ; lea 0x4(%ecx),%eax
@@ -60079,14 +49783,14 @@ _sk_mirror_x_1_sse2 LABEL PROC
DB 232,0,0,0,0 ; call 606b <_sk_mirror_x_1_sse2+0xb>
DB 89 ; pop %ecx
DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 15,40,161,101,161,0,0 ; movaps 0xa165(%ecx),%xmm4
+ DB 15,40,161,85,101,0,0 ; movaps 0x6555(%ecx),%xmm4
DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,40,169,229,160,0,0 ; movaps 0xa0e5(%ecx),%xmm5
+ DB 15,40,169,213,100,0,0 ; movaps 0x64d5(%ecx),%xmm5
DB 15,89,232 ; mulps %xmm0,%xmm5
DB 243,15,91,245 ; cvttps2dq %xmm5,%xmm6
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
DB 15,194,238,1 ; cmpltps %xmm6,%xmm5
- DB 15,84,169,245,160,0,0 ; andps 0xa0f5(%ecx),%xmm5
+ DB 15,84,169,229,100,0,0 ; andps 0x64e5(%ecx),%xmm5
DB 15,87,255 ; xorps %xmm7,%xmm7
DB 15,92,245 ; subps %xmm5,%xmm6
DB 15,88,246 ; addps %xmm6,%xmm6
@@ -60112,10 +49816,10 @@ _sk_luminance_to_alpha_sse2 LABEL PROC
DB 232,0,0,0,0 ; call 60c9 <_sk_luminance_to_alpha_sse2+0xe>
DB 88 ; pop %eax
DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,89,128,199,165,0,0 ; mulps 0xa5c7(%eax),%xmm0
- DB 15,89,136,215,165,0,0 ; mulps 0xa5d7(%eax),%xmm1
+ DB 15,89,128,183,105,0,0 ; mulps 0x69b7(%eax),%xmm0
+ DB 15,89,136,199,105,0,0 ; mulps 0x69c7(%eax),%xmm1
DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,89,152,231,165,0,0 ; mulps 0xa5e7(%eax),%xmm3
+ DB 15,89,152,215,105,0,0 ; mulps 0x69d7(%eax),%xmm3
DB 15,88,217 ; addps %xmm1,%xmm3
DB 141,65,4 ; lea 0x4(%ecx),%eax
DB 131,236,8 ; sub $0x8,%esp
@@ -60500,12 +50204,12 @@ _sk_evenly_spaced_gradient_sse2 LABEL PROC
DB 78 ; dec %esi
DB 102,15,110,206 ; movd %esi,%xmm1
DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,111,146,90,161,0,0 ; movdqa 0xa15a(%edx),%xmm2
+ DB 102,15,111,146,74,101,0,0 ; movdqa 0x654a(%edx),%xmm2
DB 102,15,219,209 ; pand %xmm1,%xmm2
- DB 102,15,235,146,26,159,0,0 ; por 0x9f1a(%edx),%xmm2
+ DB 102,15,235,146,10,99,0,0 ; por 0x630a(%edx),%xmm2
DB 102,15,114,209,16 ; psrld $0x10,%xmm1
- DB 102,15,235,138,106,161,0,0 ; por 0xa16a(%edx),%xmm1
- DB 15,88,138,122,161,0,0 ; addps 0xa17a(%edx),%xmm1
+ DB 102,15,235,138,90,101,0,0 ; por 0x655a(%edx),%xmm1
+ DB 15,88,138,106,101,0,0 ; addps 0x656a(%edx),%xmm1
DB 15,88,202 ; addps %xmm2,%xmm1
DB 15,89,200 ; mulps %xmm0,%xmm1
DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
@@ -60613,15 +50317,15 @@ _sk_gauss_a_to_rgba_sse2 LABEL PROC
DB 232,0,0,0,0 ; call 6726 <_sk_gauss_a_to_rgba_sse2+0xb>
DB 88 ; pop %eax
DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,40,128,202,159,0,0 ; movaps 0x9fca(%eax),%xmm0
+ DB 15,40,128,186,99,0,0 ; movaps 0x63ba(%eax),%xmm0
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,128,218,159,0,0 ; addps 0x9fda(%eax),%xmm0
+ DB 15,88,128,202,99,0,0 ; addps 0x63ca(%eax),%xmm0
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,128,234,159,0,0 ; addps 0x9fea(%eax),%xmm0
+ DB 15,88,128,218,99,0,0 ; addps 0x63da(%eax),%xmm0
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,128,250,159,0,0 ; addps 0x9ffa(%eax),%xmm0
+ DB 15,88,128,234,99,0,0 ; addps 0x63ea(%eax),%xmm0
DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,128,10,160,0,0 ; addps 0xa00a(%eax),%xmm0
+ DB 15,88,128,250,99,0,0 ; addps 0x63fa(%eax),%xmm0
DB 141,65,4 ; lea 0x4(%ecx),%eax
DB 131,236,8 ; sub $0x8,%esp
DB 15,40,200 ; movaps %xmm0,%xmm1
@@ -60823,30 +50527,30 @@ _sk_xy_to_unit_angle_sse2 LABEL PROC
DB 15,94,247 ; divps %xmm7,%xmm6
DB 15,40,254 ; movaps %xmm6,%xmm7
DB 15,89,255 ; mulps %xmm7,%xmm7
- DB 15,40,128,136,157,0,0 ; movaps 0x9d88(%eax),%xmm0
+ DB 15,40,128,120,97,0,0 ; movaps 0x6178(%eax),%xmm0
DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,88,128,152,157,0,0 ; addps 0x9d98(%eax),%xmm0
+ DB 15,88,128,136,97,0,0 ; addps 0x6188(%eax),%xmm0
DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,88,128,168,157,0,0 ; addps 0x9da8(%eax),%xmm0
+ DB 15,88,128,152,97,0,0 ; addps 0x6198(%eax),%xmm0
DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,88,128,184,157,0,0 ; addps 0x9db8(%eax),%xmm0
+ DB 15,88,128,168,97,0,0 ; addps 0x61a8(%eax),%xmm0
DB 15,89,198 ; mulps %xmm6,%xmm0
DB 15,194,236,1 ; cmpltps %xmm4,%xmm5
- DB 15,40,176,200,157,0,0 ; movaps 0x9dc8(%eax),%xmm6
+ DB 15,40,176,184,97,0,0 ; movaps 0x61b8(%eax),%xmm6
DB 15,92,240 ; subps %xmm0,%xmm6
DB 15,84,245 ; andps %xmm5,%xmm6
DB 15,85,232 ; andnps %xmm0,%xmm5
DB 15,87,228 ; xorps %xmm4,%xmm4
DB 15,86,238 ; orps %xmm6,%xmm5
DB 15,194,204,1 ; cmpltps %xmm4,%xmm1
- DB 15,40,128,152,151,0,0 ; movaps 0x9798(%eax),%xmm0
+ DB 15,40,128,136,91,0,0 ; movaps 0x5b88(%eax),%xmm0
DB 15,92,197 ; subps %xmm5,%xmm0
DB 15,84,193 ; andps %xmm1,%xmm0
DB 15,85,205 ; andnps %xmm5,%xmm1
DB 15,86,200 ; orps %xmm0,%xmm1
DB 15,40,194 ; movaps %xmm2,%xmm0
DB 15,194,196,1 ; cmpltps %xmm4,%xmm0
- DB 15,40,168,168,151,0,0 ; movaps 0x97a8(%eax),%xmm5
+ DB 15,40,168,152,91,0,0 ; movaps 0x5b98(%eax),%xmm5
DB 15,92,233 ; subps %xmm1,%xmm5
DB 15,84,232 ; andps %xmm0,%xmm5
DB 15,85,193 ; andnps %xmm1,%xmm0
@@ -60910,8 +50614,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2 LABEL PROC
DB 15,92,245 ; subps %xmm5,%xmm6
DB 243,15,16,65,32 ; movss 0x20(%ecx),%xmm0
DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,89,162,187,156,0,0 ; mulps 0x9cbb(%edx),%xmm4
- DB 15,89,130,203,156,0,0 ; mulps 0x9ccb(%edx),%xmm0
+ DB 15,89,162,171,96,0,0 ; mulps 0x60ab(%edx),%xmm4
+ DB 15,89,130,187,96,0,0 ; mulps 0x60bb(%edx),%xmm0
DB 15,89,198 ; mulps %xmm6,%xmm0
DB 15,40,236 ; movaps %xmm4,%xmm5
DB 15,89,237 ; mulps %xmm5,%xmm5
@@ -60919,11 +50623,11 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2 LABEL PROC
DB 15,81,237 ; sqrtps %xmm5,%xmm5
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,87,162,107,155,0,0 ; xorps 0x9b6b(%edx),%xmm4
+ DB 15,87,162,91,95,0,0 ; xorps 0x5f5b(%edx),%xmm4
DB 15,92,229 ; subps %xmm5,%xmm4
DB 243,15,16,105,36 ; movss 0x24(%ecx),%xmm5
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,170,123,150,0,0 ; mulps 0x967b(%edx),%xmm5
+ DB 15,89,170,107,90,0,0 ; mulps 0x5a6b(%edx),%xmm5
DB 15,89,197 ; mulps %xmm5,%xmm0
DB 15,89,229 ; mulps %xmm5,%xmm4
DB 15,95,196 ; maxps %xmm4,%xmm0
@@ -60959,8 +50663,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2 LABEL PROC
DB 15,92,245 ; subps %xmm5,%xmm6
DB 243,15,16,65,32 ; movss 0x20(%ecx),%xmm0
DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,89,162,29,156,0,0 ; mulps 0x9c1d(%edx),%xmm4
- DB 15,89,130,45,156,0,0 ; mulps 0x9c2d(%edx),%xmm0
+ DB 15,89,162,13,96,0,0 ; mulps 0x600d(%edx),%xmm4
+ DB 15,89,130,29,96,0,0 ; mulps 0x601d(%edx),%xmm0
DB 15,89,198 ; mulps %xmm6,%xmm0
DB 15,40,236 ; movaps %xmm4,%xmm5
DB 15,89,237 ; mulps %xmm5,%xmm5
@@ -60968,11 +50672,11 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2 LABEL PROC
DB 15,81,237 ; sqrtps %xmm5,%xmm5
DB 15,40,197 ; movaps %xmm5,%xmm0
DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,87,162,205,154,0,0 ; xorps 0x9acd(%edx),%xmm4
+ DB 15,87,162,189,94,0,0 ; xorps 0x5ebd(%edx),%xmm4
DB 15,92,229 ; subps %xmm5,%xmm4
DB 243,15,16,105,36 ; movss 0x24(%ecx),%xmm5
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,170,221,149,0,0 ; mulps 0x95dd(%edx),%xmm5
+ DB 15,89,170,205,89,0,0 ; mulps 0x59cd(%edx),%xmm5
DB 15,89,197 ; mulps %xmm5,%xmm0
DB 15,89,229 ; mulps %xmm5,%xmm4
DB 15,93,196 ; minps %xmm4,%xmm0
@@ -60999,7 +50703,7 @@ _sk_xy_to_2pt_conical_linear_sse2 LABEL PROC
DB 243,15,89,236 ; mulss %xmm4,%xmm5
DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,89,169,165,155,0,0 ; mulps 0x9ba5(%ecx),%xmm5
+ DB 15,89,169,149,95,0,0 ; mulps 0x5f95(%ecx),%xmm5
DB 15,89,192 ; mulps %xmm0,%xmm0
DB 15,40,241 ; movaps %xmm1,%xmm6
DB 15,89,246 ; mulps %xmm6,%xmm6
@@ -61007,7 +50711,7 @@ _sk_xy_to_2pt_conical_linear_sse2 LABEL PROC
DB 243,15,89,228 ; mulss %xmm4,%xmm4
DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,87,129,85,154,0,0 ; xorps 0x9a55(%ecx),%xmm0
+ DB 15,87,129,69,94,0,0 ; xorps 0x5e45(%ecx),%xmm0
DB 15,94,197 ; divps %xmm5,%xmm0
DB 141,72,8 ; lea 0x8(%eax),%ecx
DB 131,236,8 ; sub $0x8,%esp
@@ -61077,14 +50781,14 @@ _sk_save_xy_sse2 LABEL PROC
DB 15,40,218 ; movaps %xmm2,%xmm3
DB 232,0,0,0,0 ; call 6cc8 <_sk_save_xy_sse2+0x12>
DB 88 ; pop %eax
- DB 15,40,160,136,148,0,0 ; movaps 0x9488(%eax),%xmm4
+ DB 15,40,160,120,88,0,0 ; movaps 0x5878(%eax),%xmm4
DB 15,40,232 ; movaps %xmm0,%xmm5
DB 15,88,236 ; addps %xmm4,%xmm5
DB 243,15,91,245 ; cvttps2dq %xmm5,%xmm6
DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
DB 15,40,253 ; movaps %xmm5,%xmm7
DB 15,194,254,1 ; cmpltps %xmm6,%xmm7
- DB 15,40,144,152,148,0,0 ; movaps 0x9498(%eax),%xmm2
+ DB 15,40,144,136,88,0,0 ; movaps 0x5888(%eax),%xmm2
DB 15,84,250 ; andps %xmm2,%xmm7
DB 15,92,247 ; subps %xmm7,%xmm6
DB 15,92,238 ; subps %xmm6,%xmm5
@@ -61162,8 +50866,8 @@ _sk_bilinear_nx_sse2 LABEL PROC
DB 139,50 ; mov (%edx),%esi
DB 15,16,6 ; movups (%esi),%xmm0
DB 15,16,102,64 ; movups 0x40(%esi),%xmm4
- DB 15,88,128,6,154,0,0 ; addps 0x9a06(%eax),%xmm0
- DB 15,40,168,182,147,0,0 ; movaps 0x93b6(%eax),%xmm5
+ DB 15,88,128,246,93,0,0 ; addps 0x5df6(%eax),%xmm0
+ DB 15,40,168,166,87,0,0 ; movaps 0x57a6(%eax),%xmm5
DB 15,92,236 ; subps %xmm4,%xmm5
DB 15,17,174,128,0,0,0 ; movups %xmm5,0x80(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
@@ -61189,7 +50893,7 @@ _sk_bilinear_px_sse2 LABEL PROC
DB 139,50 ; mov (%edx),%esi
DB 15,16,6 ; movups (%esi),%xmm0
DB 15,16,102,64 ; movups 0x40(%esi),%xmm4
- DB 15,88,128,99,147,0,0 ; addps 0x9363(%eax),%xmm0
+ DB 15,88,128,83,87,0,0 ; addps 0x5753(%eax),%xmm0
DB 15,17,166,128,0,0,0 ; movups %xmm4,0x80(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
DB 131,236,8 ; sub $0x8,%esp
@@ -61214,8 +50918,8 @@ _sk_bilinear_ny_sse2 LABEL PROC
DB 139,50 ; mov (%edx),%esi
DB 15,16,78,32 ; movups 0x20(%esi),%xmm1
DB 15,16,102,96 ; movups 0x60(%esi),%xmm4
- DB 15,88,136,138,153,0,0 ; addps 0x998a(%eax),%xmm1
- DB 15,40,168,58,147,0,0 ; movaps 0x933a(%eax),%xmm5
+ DB 15,88,136,122,93,0,0 ; addps 0x5d7a(%eax),%xmm1
+ DB 15,40,168,42,87,0,0 ; movaps 0x572a(%eax),%xmm5
DB 15,92,236 ; subps %xmm4,%xmm5
DB 15,17,174,160,0,0,0 ; movups %xmm5,0xa0(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
@@ -61241,7 +50945,7 @@ _sk_bilinear_py_sse2 LABEL PROC
DB 139,50 ; mov (%edx),%esi
DB 15,16,78,32 ; movups 0x20(%esi),%xmm1
DB 15,16,102,96 ; movups 0x60(%esi),%xmm4
- DB 15,88,136,230,146,0,0 ; addps 0x92e6(%eax),%xmm1
+ DB 15,88,136,214,86,0,0 ; addps 0x56d6(%eax),%xmm1
DB 15,17,166,160,0,0,0 ; movups %xmm4,0xa0(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
DB 131,236,8 ; sub $0x8,%esp
@@ -61266,13 +50970,13 @@ _sk_bicubic_n3x_sse2 LABEL PROC
DB 139,50 ; mov (%edx),%esi
DB 15,16,6 ; movups (%esi),%xmm0
DB 15,16,102,64 ; movups 0x40(%esi),%xmm4
- DB 15,88,128,28,153,0,0 ; addps 0x991c(%eax),%xmm0
- DB 15,40,168,188,146,0,0 ; movaps 0x92bc(%eax),%xmm5
+ DB 15,88,128,12,93,0,0 ; addps 0x5d0c(%eax),%xmm0
+ DB 15,40,168,172,86,0,0 ; movaps 0x56ac(%eax),%xmm5
DB 15,92,236 ; subps %xmm4,%xmm5
DB 15,40,229 ; movaps %xmm5,%xmm4
DB 15,89,228 ; mulps %xmm4,%xmm4
- DB 15,89,168,44,153,0,0 ; mulps 0x992c(%eax),%xmm5
- DB 15,88,168,156,148,0,0 ; addps 0x949c(%eax),%xmm5
+ DB 15,89,168,28,93,0,0 ; mulps 0x5d1c(%eax),%xmm5
+ DB 15,88,168,140,88,0,0 ; addps 0x588c(%eax),%xmm5
DB 15,89,236 ; mulps %xmm4,%xmm5
DB 15,17,174,128,0,0,0 ; movups %xmm5,0x80(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
@@ -61298,16 +51002,16 @@ _sk_bicubic_n1x_sse2 LABEL PROC
DB 139,50 ; mov (%edx),%esi
DB 15,16,6 ; movups (%esi),%xmm0
DB 15,16,102,64 ; movups 0x40(%esi),%xmm4
- DB 15,88,128,178,152,0,0 ; addps 0x98b2(%eax),%xmm0
- DB 15,40,168,98,146,0,0 ; movaps 0x9262(%eax),%xmm5
+ DB 15,88,128,162,92,0,0 ; addps 0x5ca2(%eax),%xmm0
+ DB 15,40,168,82,86,0,0 ; movaps 0x5652(%eax),%xmm5
DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,40,160,226,152,0,0 ; movaps 0x98e2(%eax),%xmm4
+ DB 15,40,160,210,92,0,0 ; movaps 0x5cd2(%eax),%xmm4
DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,242,152,0,0 ; addps 0x98f2(%eax),%xmm4
+ DB 15,88,160,226,92,0,0 ; addps 0x5ce2(%eax),%xmm4
DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,82,146,0,0 ; addps 0x9252(%eax),%xmm4
+ DB 15,88,160,66,86,0,0 ; addps 0x5642(%eax),%xmm4
DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,2,153,0,0 ; addps 0x9902(%eax),%xmm4
+ DB 15,88,160,242,92,0,0 ; addps 0x5cf2(%eax),%xmm4
DB 15,17,166,128,0,0,0 ; movups %xmm4,0x80(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
DB 131,236,8 ; sub $0x8,%esp
@@ -61330,17 +51034,17 @@ _sk_bicubic_p1x_sse2 LABEL PROC
DB 139,77,8 ; mov 0x8(%ebp),%ecx
DB 139,85,12 ; mov 0xc(%ebp),%edx
DB 139,50 ; mov (%edx),%esi
- DB 15,40,160,234,145,0,0 ; movaps 0x91ea(%eax),%xmm4
+ DB 15,40,160,218,85,0,0 ; movaps 0x55da(%eax),%xmm4
DB 15,16,6 ; movups (%esi),%xmm0
DB 15,16,110,64 ; movups 0x40(%esi),%xmm5
DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,40,176,122,152,0,0 ; movaps 0x987a(%eax),%xmm6
+ DB 15,40,176,106,92,0,0 ; movaps 0x5c6a(%eax),%xmm6
DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,176,138,152,0,0 ; addps 0x988a(%eax),%xmm6
+ DB 15,88,176,122,92,0,0 ; addps 0x5c7a(%eax),%xmm6
DB 15,89,245 ; mulps %xmm5,%xmm6
DB 15,88,244 ; addps %xmm4,%xmm6
DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,176,154,152,0,0 ; addps 0x989a(%eax),%xmm6
+ DB 15,88,176,138,92,0,0 ; addps 0x5c8a(%eax),%xmm6
DB 15,17,182,128,0,0,0 ; movups %xmm6,0x80(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
DB 131,236,8 ; sub $0x8,%esp
@@ -61365,11 +51069,11 @@ _sk_bicubic_p3x_sse2 LABEL PROC
DB 139,50 ; mov (%edx),%esi
DB 15,16,6 ; movups (%esi),%xmm0
DB 15,16,102,64 ; movups 0x40(%esi),%xmm4
- DB 15,88,128,45,152,0,0 ; addps 0x982d(%eax),%xmm0
+ DB 15,88,128,29,92,0,0 ; addps 0x5c1d(%eax),%xmm0
DB 15,40,236 ; movaps %xmm4,%xmm5
DB 15,89,237 ; mulps %xmm5,%xmm5
- DB 15,89,160,13,152,0,0 ; mulps 0x980d(%eax),%xmm4
- DB 15,88,160,125,147,0,0 ; addps 0x937d(%eax),%xmm4
+ DB 15,89,160,253,91,0,0 ; mulps 0x5bfd(%eax),%xmm4
+ DB 15,88,160,109,87,0,0 ; addps 0x576d(%eax),%xmm4
DB 15,89,229 ; mulps %xmm5,%xmm4
DB 15,17,166,128,0,0,0 ; movups %xmm4,0x80(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
@@ -61395,13 +51099,13 @@ _sk_bicubic_n3y_sse2 LABEL PROC
DB 139,50 ; mov (%edx),%esi
DB 15,16,78,32 ; movups 0x20(%esi),%xmm1
DB 15,16,102,96 ; movups 0x60(%esi),%xmm4
- DB 15,88,136,173,151,0,0 ; addps 0x97ad(%eax),%xmm1
- DB 15,40,168,77,145,0,0 ; movaps 0x914d(%eax),%xmm5
+ DB 15,88,136,157,91,0,0 ; addps 0x5b9d(%eax),%xmm1
+ DB 15,40,168,61,85,0,0 ; movaps 0x553d(%eax),%xmm5
DB 15,92,236 ; subps %xmm4,%xmm5
DB 15,40,229 ; movaps %xmm5,%xmm4
DB 15,89,228 ; mulps %xmm4,%xmm4
- DB 15,89,168,189,151,0,0 ; mulps 0x97bd(%eax),%xmm5
- DB 15,88,168,45,147,0,0 ; addps 0x932d(%eax),%xmm5
+ DB 15,89,168,173,91,0,0 ; mulps 0x5bad(%eax),%xmm5
+ DB 15,88,168,29,87,0,0 ; addps 0x571d(%eax),%xmm5
DB 15,89,236 ; mulps %xmm4,%xmm5
DB 15,17,174,160,0,0,0 ; movups %xmm5,0xa0(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
@@ -61427,16 +51131,16 @@ _sk_bicubic_n1y_sse2 LABEL PROC
DB 139,50 ; mov (%edx),%esi
DB 15,16,78,32 ; movups 0x20(%esi),%xmm1
DB 15,16,102,96 ; movups 0x60(%esi),%xmm4
- DB 15,88,136,66,151,0,0 ; addps 0x9742(%eax),%xmm1
- DB 15,40,168,242,144,0,0 ; movaps 0x90f2(%eax),%xmm5
+ DB 15,88,136,50,91,0,0 ; addps 0x5b32(%eax),%xmm1
+ DB 15,40,168,226,84,0,0 ; movaps 0x54e2(%eax),%xmm5
DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,40,160,114,151,0,0 ; movaps 0x9772(%eax),%xmm4
+ DB 15,40,160,98,91,0,0 ; movaps 0x5b62(%eax),%xmm4
DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,130,151,0,0 ; addps 0x9782(%eax),%xmm4
+ DB 15,88,160,114,91,0,0 ; addps 0x5b72(%eax),%xmm4
DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,226,144,0,0 ; addps 0x90e2(%eax),%xmm4
+ DB 15,88,160,210,84,0,0 ; addps 0x54d2(%eax),%xmm4
DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,146,151,0,0 ; addps 0x9792(%eax),%xmm4
+ DB 15,88,160,130,91,0,0 ; addps 0x5b82(%eax),%xmm4
DB 15,17,166,160,0,0,0 ; movups %xmm4,0xa0(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
DB 131,236,8 ; sub $0x8,%esp
@@ -61459,17 +51163,17 @@ _sk_bicubic_p1y_sse2 LABEL PROC
DB 139,77,8 ; mov 0x8(%ebp),%ecx
DB 139,85,12 ; mov 0xc(%ebp),%edx
DB 139,50 ; mov (%edx),%esi
- DB 15,40,160,121,144,0,0 ; movaps 0x9079(%eax),%xmm4
+ DB 15,40,160,105,84,0,0 ; movaps 0x5469(%eax),%xmm4
DB 15,16,78,32 ; movups 0x20(%esi),%xmm1
DB 15,16,110,96 ; movups 0x60(%esi),%xmm5
DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,40,176,9,151,0,0 ; movaps 0x9709(%eax),%xmm6
+ DB 15,40,176,249,90,0,0 ; movaps 0x5af9(%eax),%xmm6
DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,176,25,151,0,0 ; addps 0x9719(%eax),%xmm6
+ DB 15,88,176,9,91,0,0 ; addps 0x5b09(%eax),%xmm6
DB 15,89,245 ; mulps %xmm5,%xmm6
DB 15,88,244 ; addps %xmm4,%xmm6
DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,176,41,151,0,0 ; addps 0x9729(%eax),%xmm6
+ DB 15,88,176,25,91,0,0 ; addps 0x5b19(%eax),%xmm6
DB 15,17,182,160,0,0,0 ; movups %xmm6,0xa0(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
DB 131,236,8 ; sub $0x8,%esp
@@ -61494,11 +51198,11 @@ _sk_bicubic_p3y_sse2 LABEL PROC
DB 139,50 ; mov (%edx),%esi
DB 15,16,78,32 ; movups 0x20(%esi),%xmm1
DB 15,16,102,96 ; movups 0x60(%esi),%xmm4
- DB 15,88,136,187,150,0,0 ; addps 0x96bb(%eax),%xmm1
+ DB 15,88,136,171,90,0,0 ; addps 0x5aab(%eax),%xmm1
DB 15,40,236 ; movaps %xmm4,%xmm5
DB 15,89,237 ; mulps %xmm5,%xmm5
- DB 15,89,160,155,150,0,0 ; mulps 0x969b(%eax),%xmm4
- DB 15,88,160,11,146,0,0 ; addps 0x920b(%eax),%xmm4
+ DB 15,89,160,139,90,0,0 ; mulps 0x5a8b(%eax),%xmm4
+ DB 15,88,160,251,85,0,0 ; addps 0x55fb(%eax),%xmm4
DB 15,89,229 ; mulps %xmm5,%xmm4
DB 15,17,166,160,0,0,0 ; movups %xmm4,0xa0(%esi)
DB 141,66,8 ; lea 0x8(%edx),%eax
@@ -61647,7 +51351,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 102,15,254,216 ; paddd %xmm0,%xmm3
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 102,15,111,162,255,148,0,0 ; movdqa 0x94ff(%edx),%xmm4
+ DB 102,15,111,162,239,88,0,0 ; movdqa 0x58ef(%edx),%xmm4
DB 102,15,127,165,120,255,255,255 ; movdqa %xmm4,-0x88(%ebp)
DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
@@ -61687,7 +51391,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
DB 15,20,248 ; unpcklps %xmm0,%xmm7
DB 102,15,20,252 ; unpcklpd %xmm4,%xmm7
- DB 102,15,111,130,127,142,0,0 ; movdqa 0x8e7f(%edx),%xmm0
+ DB 102,15,111,130,111,82,0,0 ; movdqa 0x526f(%edx),%xmm0
DB 102,15,127,133,104,255,255,255 ; movdqa %xmm0,-0x98(%ebp)
DB 102,15,254,200 ; paddd %xmm0,%xmm1
DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
@@ -61704,7 +51408,7 @@ _sk_clut_3D_sse2 LABEL PROC
DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
DB 15,20,240 ; unpcklps %xmm0,%xmm6
DB 102,15,20,241 ; unpcklpd %xmm1,%xmm6
- DB 15,40,130,239,148,0,0 ; movaps 0x94ef(%edx),%xmm0
+ DB 15,40,130,223,88,0,0 ; movaps 0x58df(%edx),%xmm0
DB 15,40,141,232,254,255,255 ; movaps -0x118(%ebp),%xmm1
DB 15,88,200 ; addps %xmm0,%xmm1
DB 15,41,77,200 ; movaps %xmm1,-0x38(%ebp)
@@ -62336,7 +52040,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,111,212 ; movdqa %xmm4,%xmm2
DB 102,15,254,214 ; paddd %xmm6,%xmm2
DB 102,15,254,218 ; paddd %xmm2,%xmm3
- DB 102,15,111,161,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm4
+ DB 102,15,111,161,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm4
DB 102,15,112,203,245 ; pshufd $0xf5,%xmm3,%xmm1
DB 102,15,244,220 ; pmuludq %xmm4,%xmm3
DB 102,15,244,204 ; pmuludq %xmm4,%xmm1
@@ -62378,7 +52082,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 15,20,223 ; unpcklps %xmm7,%xmm3
DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
DB 102,15,41,157,232,254,255,255 ; movapd %xmm3,-0x118(%ebp)
- DB 102,15,254,137,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm1
+ DB 102,15,254,137,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm1
DB 102,15,112,241,229 ; pshufd $0xe5,%xmm1,%xmm6
DB 102,15,126,240 ; movd %xmm6,%eax
DB 102,15,112,241,78 ; pshufd $0x4e,%xmm1,%xmm6
@@ -62393,7 +52097,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,60,130 ; movss (%edx,%eax,4),%xmm7
DB 15,20,223 ; unpcklps %xmm7,%xmm3
DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
- DB 15,40,185,89,137,0,0 ; movaps 0x8959(%ecx),%xmm7
+ DB 15,40,185,73,77,0,0 ; movaps 0x4d49(%ecx),%xmm7
DB 15,88,199 ; addps %xmm7,%xmm0
DB 15,41,133,120,255,255,255 ; movaps %xmm0,-0x88(%ebp)
DB 15,40,133,248,254,255,255 ; movaps -0x108(%ebp),%xmm0
@@ -62414,7 +52118,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,127,101,168 ; movdqa %xmm4,-0x58(%ebp)
DB 102,15,254,212 ; paddd %xmm4,%xmm2
DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,161,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm4
+ DB 102,15,111,161,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm4
DB 102,15,244,212 ; pmuludq %xmm4,%xmm2
DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
DB 102,15,112,240,232 ; pshufd $0xe8,%xmm0,%xmm6
@@ -62450,7 +52154,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,44,130 ; movss (%edx,%eax,4),%xmm5
DB 15,20,213 ; unpcklps %xmm5,%xmm2
DB 102,15,20,214 ; unpcklpd %xmm6,%xmm2
- DB 102,15,254,129,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm0
+ DB 102,15,254,129,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm0
DB 102,15,112,232,229 ; pshufd $0xe5,%xmm0,%xmm5
DB 102,15,126,232 ; movd %xmm5,%eax
DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
@@ -62534,7 +52238,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,44,130 ; movss (%edx,%eax,4),%xmm5
DB 15,20,245 ; unpcklps %xmm5,%xmm6
DB 102,15,20,240 ; unpcklpd %xmm0,%xmm6
- DB 102,15,254,137,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm1
+ DB 102,15,254,137,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm1
DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
DB 102,15,126,192 ; movd %xmm0,%eax
DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
@@ -62552,7 +52256,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
DB 102,15,254,77,168 ; paddd -0x58(%ebp),%xmm1
DB 102,15,112,193,245 ; pshufd $0xf5,%xmm1,%xmm0
- DB 102,15,111,145,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm2
+ DB 102,15,111,145,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm2
DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
@@ -62588,7 +52292,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
DB 15,20,216 ; unpcklps %xmm0,%xmm3
DB 102,15,20,217 ; unpcklpd %xmm1,%xmm3
- DB 102,15,254,169,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm5
+ DB 102,15,254,169,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm5
DB 102,15,112,197,229 ; pshufd $0xe5,%xmm5,%xmm0
DB 102,15,126,192 ; movd %xmm0,%eax
DB 102,15,112,197,78 ; pshufd $0x4e,%xmm5,%xmm0
@@ -62648,7 +52352,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,111,209 ; movdqa %xmm1,%xmm2
DB 102,15,254,85,152 ; paddd -0x68(%ebp),%xmm2
DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,153,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm3
+ DB 102,15,111,153,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm3
DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
DB 102,15,244,195 ; pmuludq %xmm3,%xmm0
DB 102,15,111,251 ; movdqa %xmm3,%xmm7
@@ -62687,7 +52391,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,44,130 ; movss (%edx,%eax,4),%xmm5
DB 15,20,229 ; unpcklps %xmm5,%xmm4
DB 102,15,20,227 ; unpcklpd %xmm3,%xmm4
- DB 102,15,254,129,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm0
+ DB 102,15,254,129,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm0
DB 102,15,112,216,229 ; pshufd $0xe5,%xmm0,%xmm3
DB 102,15,126,216 ; movd %xmm3,%eax
DB 102,15,112,216,78 ; pshufd $0x4e,%xmm0,%xmm3
@@ -62739,7 +52443,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,52,130 ; movss (%edx,%eax,4),%xmm6
DB 15,20,238 ; unpcklps %xmm6,%xmm5
DB 102,15,20,235 ; unpcklpd %xmm3,%xmm5
- DB 102,15,111,137,233,130,0,0 ; movdqa 0x82e9(%ecx),%xmm1
+ DB 102,15,111,137,217,70,0,0 ; movdqa 0x46d9(%ecx),%xmm1
DB 102,15,254,249 ; paddd %xmm1,%xmm7
DB 102,15,112,223,229 ; pshufd $0xe5,%xmm7,%xmm3
DB 102,15,126,216 ; movd %xmm3,%eax
@@ -62773,7 +52477,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,111,226 ; movdqa %xmm2,%xmm4
DB 102,15,254,69,152 ; paddd -0x68(%ebp),%xmm0
DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,111,153,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm3
+ DB 102,15,111,153,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm3
DB 102,15,244,195 ; pmuludq %xmm3,%xmm0
DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
DB 102,15,112,218,232 ; pshufd $0xe8,%xmm2,%xmm3
@@ -62830,7 +52534,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,111,212 ; movdqa %xmm4,%xmm2
DB 102,15,254,85,168 ; paddd -0x58(%ebp),%xmm2
DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,137,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm1
+ DB 102,15,111,137,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm1
DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
DB 102,15,112,240,232 ; pshufd $0xe8,%xmm0,%xmm6
@@ -62867,7 +52571,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
DB 15,20,212 ; unpcklps %xmm4,%xmm2
DB 102,15,20,214 ; unpcklpd %xmm6,%xmm2
- DB 102,15,254,129,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm0
+ DB 102,15,254,129,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm0
DB 102,15,112,224,229 ; pshufd $0xe5,%xmm0,%xmm4
DB 102,15,126,224 ; movd %xmm4,%eax
DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
@@ -62935,7 +52639,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,111,93,152 ; movdqa -0x68(%ebp),%xmm3
DB 102,15,254,217 ; paddd %xmm1,%xmm3
DB 102,15,112,211,245 ; pshufd $0xf5,%xmm3,%xmm2
- DB 102,15,111,129,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm0
+ DB 102,15,111,129,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm0
DB 102,15,244,216 ; pmuludq %xmm0,%xmm3
DB 102,15,244,208 ; pmuludq %xmm0,%xmm2
DB 102,15,111,248 ; movdqa %xmm0,%xmm7
@@ -62974,7 +52678,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,28,130 ; movss (%edx,%eax,4),%xmm3
DB 15,20,235 ; unpcklps %xmm3,%xmm5
DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 102,15,254,145,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm2
+ DB 102,15,254,145,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm2
DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
DB 102,15,126,216 ; movd %xmm3,%eax
DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
@@ -63026,7 +52730,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
DB 15,20,208 ; unpcklps %xmm0,%xmm2
DB 102,15,20,215 ; unpcklpd %xmm7,%xmm2
- DB 102,15,111,137,233,130,0,0 ; movdqa 0x82e9(%ecx),%xmm1
+ DB 102,15,111,137,217,70,0,0 ; movdqa 0x46d9(%ecx),%xmm1
DB 102,15,254,217 ; paddd %xmm1,%xmm3
DB 102,15,112,195,229 ; pshufd $0xe5,%xmm3,%xmm0
DB 102,15,126,192 ; movd %xmm0,%eax
@@ -63061,7 +52765,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,111,194 ; movdqa %xmm2,%xmm0
DB 102,15,254,69,152 ; paddd -0x68(%ebp),%xmm0
DB 102,15,112,224,245 ; pshufd $0xf5,%xmm0,%xmm4
- DB 102,15,111,169,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm5
+ DB 102,15,111,169,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm5
DB 102,15,111,221 ; movdqa %xmm5,%xmm3
DB 102,15,244,195 ; pmuludq %xmm3,%xmm0
DB 102,15,244,227 ; pmuludq %xmm3,%xmm4
@@ -63117,7 +52821,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,111,202 ; movdqa %xmm2,%xmm1
DB 102,15,254,77,168 ; paddd -0x58(%ebp),%xmm1
DB 102,15,112,193,245 ; pshufd $0xf5,%xmm1,%xmm0
- DB 102,15,111,145,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm2
+ DB 102,15,111,145,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm2
DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
@@ -63153,7 +52857,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
DB 15,20,216 ; unpcklps %xmm0,%xmm3
DB 102,15,20,217 ; unpcklpd %xmm1,%xmm3
- DB 102,15,254,185,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm7
+ DB 102,15,254,185,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm7
DB 102,15,112,199,229 ; pshufd $0xe5,%xmm7,%xmm0
DB 102,15,126,192 ; movd %xmm0,%eax
DB 102,15,112,199,78 ; pshufd $0x4e,%xmm7,%xmm0
@@ -63203,7 +52907,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,111,233 ; movdqa %xmm1,%xmm5
DB 102,15,254,69,152 ; paddd -0x68(%ebp),%xmm0
DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,15,111,145,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm2
+ DB 102,15,111,145,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm2
DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
DB 102,15,111,250 ; movdqa %xmm2,%xmm7
@@ -63242,7 +52946,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
DB 15,20,204 ; unpcklps %xmm4,%xmm1
DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 102,15,254,145,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm2
+ DB 102,15,254,145,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm2
DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
DB 102,15,126,216 ; movd %xmm3,%eax
DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
@@ -63296,7 +53000,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
DB 15,20,252 ; unpcklps %xmm4,%xmm7
DB 102,15,20,254 ; unpcklpd %xmm6,%xmm7
- DB 102,15,254,153,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm3
+ DB 102,15,254,153,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm3
DB 102,15,112,227,229 ; pshufd $0xe5,%xmm3,%xmm4
DB 102,15,126,224 ; movd %xmm4,%eax
DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
@@ -63329,7 +53033,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 102,15,254,208 ; paddd %xmm0,%xmm2
DB 102,15,111,216 ; movdqa %xmm0,%xmm3
DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,137,105,137,0,0 ; movdqa 0x8969(%ecx),%xmm1
+ DB 102,15,111,137,89,77,0,0 ; movdqa 0x4d59(%ecx),%xmm1
DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
DB 102,15,111,241 ; movdqa %xmm1,%xmm6
@@ -63369,7 +53073,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 15,20,225 ; unpcklps %xmm1,%xmm4
DB 102,15,20,226 ; unpcklpd %xmm2,%xmm4
DB 102,15,41,165,88,255,255,255 ; movapd %xmm4,-0xa8(%ebp)
- DB 102,15,254,129,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm0
+ DB 102,15,254,129,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm0
DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
DB 102,15,126,200 ; movd %xmm1,%eax
DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
@@ -63423,7 +53127,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 243,15,16,52,130 ; movss (%edx,%eax,4),%xmm6
DB 15,20,206 ; unpcklps %xmm6,%xmm1
DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 102,15,254,145,233,130,0,0 ; paddd 0x82e9(%ecx),%xmm2
+ DB 102,15,254,145,217,70,0,0 ; paddd 0x46d9(%ecx),%xmm2
DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
DB 102,15,126,216 ; movd %xmm3,%eax
DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
@@ -63493,7 +53197,7 @@ _sk_clut_4D_sse2 LABEL PROC
DB 139,117,12 ; mov 0xc(%ebp),%esi
DB 141,86,8 ; lea 0x8(%esi),%edx
DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,153,169,130,0,0 ; movaps 0x82a9(%ecx),%xmm3
+ DB 15,40,153,153,70,0,0 ; movaps 0x4699(%ecx),%xmm3
DB 82 ; push %edx
DB 80 ; push %eax
DB 255,86,4 ; call *0x4(%esi)
@@ -63506,4214 +53210,6 @@ _sk_clut_4D_sse2 LABEL PROC
DB 144 ; nop
DB 144 ; nop
-PUBLIC _sk_start_pipeline_sse2_8bit
-_sk_start_pipeline_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,228,240 ; and $0xfffffff0,%esp
- DB 131,236,16 ; sub $0x10,%esp
- DB 139,93,12 ; mov 0xc(%ebp),%ebx
- DB 59,93,20 ; cmp 0x14(%ebp),%ebx
- DB 115,97 ; jae 9379 <_sk_start_pipeline_sse2_8bit+0x75>
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,117,24 ; mov 0x18(%ebp),%esi
- DB 139,62 ; mov (%esi),%edi
- DB 131,198,4 ; add $0x4,%esi
- DB 141,64,8 ; lea 0x8(%eax),%eax
- DB 137,68,36,8 ; mov %eax,0x8(%esp)
- DB 137,92,36,4 ; mov %ebx,0x4(%esp)
- DB 57,84,36,8 ; cmp %edx,0x8(%esp)
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 137,243 ; mov %esi,%ebx
- DB 119,31 ; ja 935b <_sk_start_pipeline_sse2_8bit+0x57>
- DB 139,117,8 ; mov 0x8(%ebp),%esi
- DB 255,116,36,4 ; pushl 0x4(%esp)
- DB 86 ; push %esi
- DB 83 ; push %ebx
- DB 106,0 ; push $0x0
- DB 255,215 ; call *%edi
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 131,196,16 ; add $0x10,%esp
- DB 141,70,8 ; lea 0x8(%esi),%eax
- DB 131,198,16 ; add $0x10,%esi
- DB 57,214 ; cmp %edx,%esi
- DB 137,198 ; mov %eax,%esi
- DB 118,228 ; jbe 933f <_sk_start_pipeline_sse2_8bit+0x3b>
- DB 137,209 ; mov %edx,%ecx
- DB 41,193 ; sub %eax,%ecx
- DB 137,222 ; mov %ebx,%esi
- DB 139,92,36,4 ; mov 0x4(%esp),%ebx
- DB 116,12 ; je 9373 <_sk_start_pipeline_sse2_8bit+0x6f>
- DB 83 ; push %ebx
- DB 80 ; push %eax
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 255,215 ; call *%edi
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 131,196,16 ; add $0x10,%esp
- DB 67 ; inc %ebx
- DB 59,93,20 ; cmp 0x14(%ebp),%ebx
- DB 117,180 ; jne 932d <_sk_start_pipeline_sse2_8bit+0x29>
- DB 141,101,244 ; lea -0xc(%ebp),%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_just_return_sse2_8bit
-_sk_just_return_sse2_8bit LABEL PROC
- DB 195 ; ret
-
-PUBLIC _sk_uniform_color_sse2_8bit
-_sk_uniform_color_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 102,15,110,65,16 ; movd 0x10(%ecx),%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_set_rgb_sse2_8bit
-_sk_set_rgb_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 93be <_sk_set_rgb_sse2_8bit+0xe>
- DB 89 ; pop %ecx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 243,15,16,161,166,117,0,0 ; movss 0x75a6(%ecx),%xmm4
- DB 243,15,16,50 ; movss (%edx),%xmm6
- DB 243,15,89,244 ; mulss %xmm4,%xmm6
- DB 243,15,44,246 ; cvttss2si %xmm6,%esi
- DB 243,15,16,169,170,117,0,0 ; movss 0x75aa(%ecx),%xmm5
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 243,15,92,253 ; subss %xmm5,%xmm7
- DB 243,15,44,255 ; cvttss2si %xmm7,%edi
- DB 129,247,0,0,0,128 ; xor $0x80000000,%edi
- DB 15,46,245 ; ucomiss %xmm5,%xmm6
- DB 15,66,254 ; cmovb %esi,%edi
- DB 243,15,16,114,4 ; movss 0x4(%edx),%xmm6
- DB 243,15,89,244 ; mulss %xmm4,%xmm6
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 243,15,92,253 ; subss %xmm5,%xmm7
- DB 243,15,44,247 ; cvttss2si %xmm7,%esi
- DB 129,246,0,0,0,128 ; xor $0x80000000,%esi
- DB 15,46,245 ; ucomiss %xmm5,%xmm6
- DB 243,15,44,222 ; cvttss2si %xmm6,%ebx
- DB 15,66,243 ; cmovb %ebx,%esi
- DB 193,230,8 ; shl $0x8,%esi
- DB 9,254 ; or %edi,%esi
- DB 243,15,89,98,8 ; mulss 0x8(%edx),%xmm4
- DB 243,15,44,212 ; cvttss2si %xmm4,%edx
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 243,15,92,245 ; subss %xmm5,%xmm6
- DB 243,15,44,254 ; cvttss2si %xmm6,%edi
- DB 129,247,0,0,0,128 ; xor $0x80000000,%edi
- DB 15,46,229 ; ucomiss %xmm5,%xmm4
- DB 15,66,250 ; cmovb %edx,%edi
- DB 193,231,16 ; shl $0x10,%edi
- DB 9,247 ; or %esi,%edi
- DB 102,15,110,231 ; movd %edi,%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 102,15,111,169,114,116,0,0 ; movdqa 0x7472(%ecx),%xmm5
- DB 102,15,219,205 ; pand %xmm5,%xmm1
- DB 102,15,219,197 ; pand %xmm5,%xmm0
- DB 102,15,235,196 ; por %xmm4,%xmm0
- DB 102,15,235,204 ; por %xmm4,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_premul_sse2_8bit
-_sk_premul_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,56 ; sub $0x38,%esp
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 232,0,0,0,0 ; call 9496 <_sk_premul_sse2_8bit+0x18>
- DB 88 ; pop %eax
- DB 242,15,112,227,231 ; pshuflw $0xe7,%xmm3,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,244,95 ; pshufhw $0x5f,%xmm4,%xmm6
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,252,95 ; pshufhw $0x5f,%xmm4,%xmm7
- DB 102,15,111,160,154,115,0,0 ; movdqa 0x739a(%eax),%xmm4
- DB 102,15,235,252 ; por %xmm4,%xmm7
- DB 102,15,235,244 ; por %xmm4,%xmm6
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,96,226 ; punpcklbw %xmm2,%xmm4
- DB 102,15,104,218 ; punpckhbw %xmm2,%xmm3
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,96,234 ; punpcklbw %xmm2,%xmm5
- DB 102,15,104,202 ; punpckhbw %xmm2,%xmm1
- DB 102,15,127,77,232 ; movdqa %xmm1,-0x18(%ebp)
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,96,194 ; punpcklbw %xmm2,%xmm0
- DB 102,15,104,242 ; punpckhbw %xmm2,%xmm6
- DB 102,15,111,207 ; movdqa %xmm7,%xmm1
- DB 102,15,96,202 ; punpcklbw %xmm2,%xmm1
- DB 102,15,104,250 ; punpckhbw %xmm2,%xmm7
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,213,243 ; pmullw %xmm3,%xmm6
- DB 102,15,253,243 ; paddw %xmm3,%xmm6
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,253,233 ; paddw %xmm1,%xmm5
- DB 102,15,111,69,232 ; movdqa -0x18(%ebp),%xmm0
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,239 ; packuswb %xmm7,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,230 ; packuswb %xmm6,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,72 ; add $0x48,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_swap_rb_sse2_8bit
-_sk_swap_rb_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,196 ; punpcklbw %xmm4,%xmm0
- DB 242,15,112,192,198 ; pshuflw $0xc6,%xmm0,%xmm0
- DB 243,15,112,192,198 ; pshufhw $0xc6,%xmm0,%xmm0
- DB 102,15,103,197 ; packuswb %xmm5,%xmm0
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,204 ; punpcklbw %xmm4,%xmm1
- DB 242,15,112,201,198 ; pshuflw $0xc6,%xmm1,%xmm1
- DB 243,15,112,201,198 ; pshufhw $0xc6,%xmm1,%xmm1
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_invert_sse2_8bit
-_sk_invert_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,239,196 ; pxor %xmm4,%xmm0
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_load_8888_sse2_8bit
-_sk_load_8888_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 9622 <_sk_load_8888_sse2_8bit+0xe>
- DB 91 ; pop %ebx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,122,4 ; mov 0x4(%edx),%edi
- DB 15,175,125,20 ; imul 0x14(%ebp),%edi
- DB 193,231,2 ; shl $0x2,%edi
- DB 3,58 ; add (%edx),%edi
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 117,30 ; jne 965c <_sk_load_8888_sse2_8bit+0x48>
- DB 102,15,16,4,183 ; movupd (%edi,%esi,4),%xmm0
- DB 15,16,76,183,16 ; movups 0x10(%edi,%esi,4),%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 119,216 ; ja 9648 <_sk_load_8888_sse2_8bit+0x34>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 3,156,139,162,0,0,0 ; add 0xa2(%ebx,%ecx,4),%ebx
- DB 255,227 ; jmp *%ebx
- DB 243,15,16,4,183 ; movss (%edi,%esi,4),%xmm0
- DB 235,197 ; jmp 9648 <_sk_load_8888_sse2_8bit+0x34>
- DB 102,15,110,68,183,8 ; movd 0x8(%edi,%esi,4),%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 102,15,18,4,183 ; movlpd (%edi,%esi,4),%xmm0
- DB 235,179 ; jmp 9648 <_sk_load_8888_sse2_8bit+0x34>
- DB 102,15,110,68,183,24 ; movd 0x18(%edi,%esi,4),%xmm0
- DB 102,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm1
- DB 243,15,16,68,183,20 ; movss 0x14(%edi,%esi,4),%xmm0
- DB 15,198,193,0 ; shufps $0x0,%xmm1,%xmm0
- DB 15,198,193,226 ; shufps $0xe2,%xmm1,%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 243,15,16,68,183,16 ; movss 0x10(%edi,%esi,4),%xmm0
- DB 243,15,16,200 ; movss %xmm0,%xmm1
- DB 102,15,16,4,183 ; movupd (%edi,%esi,4),%xmm0
- DB 235,134 ; jmp 9648 <_sk_load_8888_sse2_8bit+0x34>
- DB 102,144 ; xchg %ax,%ax
- DB 90 ; pop %edx
- DB 0,0 ; add %al,(%eax)
- DB 0,108,0,0 ; add %ch,0x0(%eax,%eax,1)
- DB 0,97,0 ; add %ah,0x0(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 153 ; cltd
- DB 0,0 ; add %al,(%eax)
- DB 0,143,0,0,0,126 ; add %cl,0x7e000000(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,115,0 ; add %dh,0x0(%ebx)
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_load_8888_dst_sse2_8bit
-_sk_load_8888_dst_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 96ee <_sk_load_8888_dst_sse2_8bit+0xe>
- DB 91 ; pop %ebx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,122,4 ; mov 0x4(%edx),%edi
- DB 15,175,125,20 ; imul 0x14(%ebp),%edi
- DB 193,231,2 ; shl $0x2,%edi
- DB 3,58 ; add (%edx),%edi
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 117,30 ; jne 9728 <_sk_load_8888_dst_sse2_8bit+0x48>
- DB 102,15,16,20,183 ; movupd (%edi,%esi,4),%xmm2
- DB 15,16,92,183,16 ; movups 0x10(%edi,%esi,4),%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 119,216 ; ja 9714 <_sk_load_8888_dst_sse2_8bit+0x34>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 3,156,139,162,0,0,0 ; add 0xa2(%ebx,%ecx,4),%ebx
- DB 255,227 ; jmp *%ebx
- DB 243,15,16,20,183 ; movss (%edi,%esi,4),%xmm2
- DB 235,197 ; jmp 9714 <_sk_load_8888_dst_sse2_8bit+0x34>
- DB 102,15,110,84,183,8 ; movd 0x8(%edi,%esi,4),%xmm2
- DB 102,15,112,210,69 ; pshufd $0x45,%xmm2,%xmm2
- DB 102,15,18,20,183 ; movlpd (%edi,%esi,4),%xmm2
- DB 235,179 ; jmp 9714 <_sk_load_8888_dst_sse2_8bit+0x34>
- DB 102,15,110,84,183,24 ; movd 0x18(%edi,%esi,4),%xmm2
- DB 102,15,112,218,69 ; pshufd $0x45,%xmm2,%xmm3
- DB 243,15,16,84,183,20 ; movss 0x14(%edi,%esi,4),%xmm2
- DB 15,198,211,0 ; shufps $0x0,%xmm3,%xmm2
- DB 15,198,211,226 ; shufps $0xe2,%xmm3,%xmm2
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 243,15,16,84,183,16 ; movss 0x10(%edi,%esi,4),%xmm2
- DB 243,15,16,218 ; movss %xmm2,%xmm3
- DB 102,15,16,20,183 ; movupd (%edi,%esi,4),%xmm2
- DB 235,134 ; jmp 9714 <_sk_load_8888_dst_sse2_8bit+0x34>
- DB 102,144 ; xchg %ax,%ax
- DB 90 ; pop %edx
- DB 0,0 ; add %al,(%eax)
- DB 0,108,0,0 ; add %ch,0x0(%eax,%eax,1)
- DB 0,97,0 ; add %ah,0x0(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 153 ; cltd
- DB 0,0 ; add %al,(%eax)
- DB 0,143,0,0,0,126 ; add %cl,0x7e000000(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,115,0 ; add %dh,0x0(%ebx)
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_store_8888_sse2_8bit
-_sk_store_8888_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 97ba <_sk_store_8888_sse2_8bit+0xe>
- DB 91 ; pop %ebx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,122,4 ; mov 0x4(%edx),%edi
- DB 15,175,125,20 ; imul 0x14(%ebp),%edi
- DB 193,231,2 ; shl $0x2,%edi
- DB 3,58 ; add (%edx),%edi
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 117,31 ; jne 97f5 <_sk_store_8888_sse2_8bit+0x49>
- DB 243,15,127,4,183 ; movdqu %xmm0,(%edi,%esi,4)
- DB 243,15,127,76,183,16 ; movdqu %xmm1,0x10(%edi,%esi,4)
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 119,224 ; ja 97e1 <_sk_store_8888_sse2_8bit+0x35>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 3,156,139,146,0,0,0 ; add 0x92(%ebx,%ecx,4),%ebx
- DB 255,227 ; jmp *%ebx
- DB 102,15,126,4,183 ; movd %xmm0,(%edi,%esi,4)
- DB 235,205 ; jmp 97e1 <_sk_store_8888_sse2_8bit+0x35>
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,126,100,183,8 ; movd %xmm4,0x8(%edi,%esi,4)
- DB 102,15,214,4,183 ; movq %xmm0,(%edi,%esi,4)
- DB 235,187 ; jmp 97e1 <_sk_store_8888_sse2_8bit+0x35>
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,15,126,100,183,24 ; movd %xmm4,0x18(%edi,%esi,4)
- DB 102,15,112,225,229 ; pshufd $0xe5,%xmm1,%xmm4
- DB 102,15,126,100,183,20 ; movd %xmm4,0x14(%edi,%esi,4)
- DB 102,15,126,76,183,16 ; movd %xmm1,0x10(%edi,%esi,4)
- DB 243,15,127,4,183 ; movdqu %xmm0,(%edi,%esi,4)
- DB 235,152 ; jmp 97e1 <_sk_store_8888_sse2_8bit+0x35>
- DB 15,31,0 ; nopl (%eax)
- DB 83 ; push %ebx
- DB 0,0 ; add %al,(%eax)
- DB 0,101,0 ; add %ah,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
- DB 90 ; pop %edx
- DB 0,0 ; add %al,(%eax)
- DB 0,136,0,0,0,130 ; add %cl,-0x7e000000(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,119,0 ; add %dh,0x0(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 108 ; insb (%dx),%es:(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_bgra_sse2_8bit
-_sk_load_bgra_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 9876 <_sk_load_bgra_sse2_8bit+0xe>
- DB 91 ; pop %ebx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,122,4 ; mov 0x4(%edx),%edi
- DB 15,175,125,20 ; imul 0x14(%ebp),%edi
- DB 193,231,2 ; shl $0x2,%edi
- DB 3,58 ; add (%edx),%edi
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 117,106 ; jne 98fc <_sk_load_bgra_sse2_8bit+0x94>
- DB 102,15,16,4,183 ; movupd (%edi,%esi,4),%xmm0
- DB 15,16,76,183,16 ; movups 0x10(%edi,%esi,4),%xmm1
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,40,232 ; movapd %xmm0,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,196 ; punpcklbw %xmm4,%xmm0
- DB 242,15,112,192,198 ; pshuflw $0xc6,%xmm0,%xmm0
- DB 243,15,112,192,198 ; pshufhw $0xc6,%xmm0,%xmm0
- DB 102,15,103,197 ; packuswb %xmm5,%xmm0
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,204 ; punpcklbw %xmm4,%xmm1
- DB 242,15,112,201,198 ; pshuflw $0xc6,%xmm1,%xmm1
- DB 243,15,112,201,198 ; pshufhw $0xc6,%xmm1,%xmm1
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 119,140 ; ja 989c <_sk_load_bgra_sse2_8bit+0x34>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 3,156,139,246,0,0,0 ; add 0xf6(%ebx,%ecx,4),%ebx
- DB 255,227 ; jmp *%ebx
- DB 243,15,16,4,183 ; movss (%edi,%esi,4),%xmm0
- DB 233,118,255,255,255 ; jmp 989c <_sk_load_bgra_sse2_8bit+0x34>
- DB 102,15,110,68,183,8 ; movd 0x8(%edi,%esi,4),%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 102,15,18,4,183 ; movlpd (%edi,%esi,4),%xmm0
- DB 233,97,255,255,255 ; jmp 989c <_sk_load_bgra_sse2_8bit+0x34>
- DB 102,15,110,68,183,24 ; movd 0x18(%edi,%esi,4),%xmm0
- DB 102,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm1
- DB 243,15,16,68,183,20 ; movss 0x14(%edi,%esi,4),%xmm0
- DB 15,198,193,0 ; shufps $0x0,%xmm1,%xmm0
- DB 15,198,193,226 ; shufps $0xe2,%xmm1,%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 243,15,16,68,183,16 ; movss 0x10(%edi,%esi,4),%xmm0
- DB 243,15,16,200 ; movss %xmm0,%xmm1
- DB 102,15,16,4,183 ; movupd (%edi,%esi,4),%xmm0
- DB 233,49,255,255,255 ; jmp 989c <_sk_load_bgra_sse2_8bit+0x34>
- DB 144 ; nop
- DB 166 ; cmpsb %es:(%edi),%ds:(%esi)
- DB 0,0 ; add %al,(%eax)
- DB 0,187,0,0,0,176 ; add %bh,-0x50000000(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 0,235 ; add %ch,%bl
- DB 0,0 ; add %al,(%eax)
- DB 0,225 ; add %ah,%cl
- DB 0,0 ; add %al,(%eax)
- DB 0,208 ; add %dl,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,197 ; add %al,%ch
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_bgra_dst_sse2_8bit
-_sk_load_bgra_dst_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 9996 <_sk_load_bgra_dst_sse2_8bit+0xe>
- DB 91 ; pop %ebx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,122,4 ; mov 0x4(%edx),%edi
- DB 15,175,125,20 ; imul 0x14(%ebp),%edi
- DB 193,231,2 ; shl $0x2,%edi
- DB 3,58 ; add (%edx),%edi
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 117,106 ; jne 9a1c <_sk_load_bgra_dst_sse2_8bit+0x94>
- DB 102,15,16,20,183 ; movupd (%edi,%esi,4),%xmm2
- DB 15,16,92,183,16 ; movups 0x10(%edi,%esi,4),%xmm3
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,40,234 ; movapd %xmm2,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,212 ; punpcklbw %xmm4,%xmm2
- DB 242,15,112,210,198 ; pshuflw $0xc6,%xmm2,%xmm2
- DB 243,15,112,210,198 ; pshufhw $0xc6,%xmm2,%xmm2
- DB 102,15,103,213 ; packuswb %xmm5,%xmm2
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,104,236 ; punpckhbw %xmm4,%xmm5
- DB 242,15,112,237,198 ; pshuflw $0xc6,%xmm5,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,96,220 ; punpcklbw %xmm4,%xmm3
- DB 242,15,112,219,198 ; pshuflw $0xc6,%xmm3,%xmm3
- DB 243,15,112,219,198 ; pshufhw $0xc6,%xmm3,%xmm3
- DB 102,15,103,221 ; packuswb %xmm5,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 119,140 ; ja 99bc <_sk_load_bgra_dst_sse2_8bit+0x34>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 3,156,139,246,0,0,0 ; add 0xf6(%ebx,%ecx,4),%ebx
- DB 255,227 ; jmp *%ebx
- DB 243,15,16,20,183 ; movss (%edi,%esi,4),%xmm2
- DB 233,118,255,255,255 ; jmp 99bc <_sk_load_bgra_dst_sse2_8bit+0x34>
- DB 102,15,110,84,183,8 ; movd 0x8(%edi,%esi,4),%xmm2
- DB 102,15,112,210,69 ; pshufd $0x45,%xmm2,%xmm2
- DB 102,15,18,20,183 ; movlpd (%edi,%esi,4),%xmm2
- DB 233,97,255,255,255 ; jmp 99bc <_sk_load_bgra_dst_sse2_8bit+0x34>
- DB 102,15,110,84,183,24 ; movd 0x18(%edi,%esi,4),%xmm2
- DB 102,15,112,218,69 ; pshufd $0x45,%xmm2,%xmm3
- DB 243,15,16,84,183,20 ; movss 0x14(%edi,%esi,4),%xmm2
- DB 15,198,211,0 ; shufps $0x0,%xmm3,%xmm2
- DB 15,198,211,226 ; shufps $0xe2,%xmm3,%xmm2
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 243,15,16,84,183,16 ; movss 0x10(%edi,%esi,4),%xmm2
- DB 243,15,16,218 ; movss %xmm2,%xmm3
- DB 102,15,16,20,183 ; movupd (%edi,%esi,4),%xmm2
- DB 233,49,255,255,255 ; jmp 99bc <_sk_load_bgra_dst_sse2_8bit+0x34>
- DB 144 ; nop
- DB 166 ; cmpsb %es:(%edi),%ds:(%esi)
- DB 0,0 ; add %al,(%eax)
- DB 0,187,0,0,0,176 ; add %bh,-0x50000000(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 0,235 ; add %ch,%bl
- DB 0,0 ; add %al,(%eax)
- DB 0,225 ; add %ah,%cl
- DB 0,0 ; add %al,(%eax)
- DB 0,208 ; add %dl,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,197 ; add %al,%ch
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_store_bgra_sse2_8bit
-_sk_store_bgra_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 9ab6 <_sk_store_bgra_sse2_8bit+0xe>
- DB 91 ; pop %ebx
- DB 139,77,20 ; mov 0x14(%ebp),%ecx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,114,4 ; mov 0x4(%edx),%esi
- DB 15,175,241 ; imul %ecx,%esi
- DB 193,230,2 ; shl $0x2,%esi
- DB 3,50 ; add (%edx),%esi
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,104,229 ; punpckhbw %xmm5,%xmm4
- DB 242,15,112,228,198 ; pshuflw $0xc6,%xmm4,%xmm4
- DB 243,15,112,244,198 ; pshufhw $0xc6,%xmm4,%xmm6
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,96,229 ; punpcklbw %xmm5,%xmm4
- DB 242,15,112,228,198 ; pshuflw $0xc6,%xmm4,%xmm4
- DB 243,15,112,228,198 ; pshufhw $0xc6,%xmm4,%xmm4
- DB 102,15,103,230 ; packuswb %xmm6,%xmm4
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,104,245 ; punpckhbw %xmm5,%xmm6
- DB 242,15,112,246,198 ; pshuflw $0xc6,%xmm6,%xmm6
- DB 243,15,112,246,198 ; pshufhw $0xc6,%xmm6,%xmm6
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,96,253 ; punpcklbw %xmm5,%xmm7
- DB 242,15,112,239,198 ; pshuflw $0xc6,%xmm7,%xmm5
- DB 243,15,112,237,198 ; pshufhw $0xc6,%xmm5,%xmm5
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 133,210 ; test %edx,%edx
- DB 139,125,16 ; mov 0x10(%ebp),%edi
- DB 117,29 ; jne 9b45 <_sk_store_bgra_sse2_8bit+0x9d>
- DB 243,15,127,44,190 ; movdqu %xmm5,(%esi,%edi,4)
- DB 243,15,127,100,190,16 ; movdqu %xmm4,0x10(%esi,%edi,4)
- DB 141,112,8 ; lea 0x8(%eax),%esi
- DB 81 ; push %ecx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,93,240 ; mov %ebx,-0x10(%ebp)
- DB 137,211 ; mov %edx,%ebx
- DB 128,227,7 ; and $0x7,%bl
- DB 254,203 ; dec %bl
- DB 128,251,6 ; cmp $0x6,%bl
- DB 119,223 ; ja 9b33 <_sk_store_bgra_sse2_8bit+0x8b>
- DB 15,182,219 ; movzbl %bl,%ebx
- DB 139,77,240 ; mov -0x10(%ebp),%ecx
- DB 3,140,153,238,0,0,0 ; add 0xee(%ecx,%ebx,4),%ecx
- DB 255,225 ; jmp *%ecx
- DB 102,15,126,44,190 ; movd %xmm5,(%esi,%edi,4)
- DB 235,51 ; jmp 9b9d <_sk_store_bgra_sse2_8bit+0xf5>
- DB 102,15,112,229,78 ; pshufd $0x4e,%xmm5,%xmm4
- DB 102,15,126,100,190,8 ; movd %xmm4,0x8(%esi,%edi,4)
- DB 102,15,214,44,190 ; movq %xmm5,(%esi,%edi,4)
- DB 235,33 ; jmp 9b9d <_sk_store_bgra_sse2_8bit+0xf5>
- DB 102,15,112,244,78 ; pshufd $0x4e,%xmm4,%xmm6
- DB 102,15,126,116,190,24 ; movd %xmm6,0x18(%esi,%edi,4)
- DB 102,15,112,244,229 ; pshufd $0xe5,%xmm4,%xmm6
- DB 102,15,126,116,190,20 ; movd %xmm6,0x14(%esi,%edi,4)
- DB 102,15,126,100,190,16 ; movd %xmm4,0x10(%esi,%edi,4)
- DB 243,15,127,44,190 ; movdqu %xmm5,(%esi,%edi,4)
- DB 139,77,20 ; mov 0x14(%ebp),%ecx
- DB 235,145 ; jmp 9b33 <_sk_store_bgra_sse2_8bit+0x8b>
- DB 102,144 ; xchg %ax,%ax
- DB 173 ; lods %ds:(%esi),%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,191,0,0,0,180 ; add %bh,-0x4c000000(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,226 ; add %ah,%dl
- DB 0,0 ; add %al,(%eax)
- DB 0,220 ; add %bl,%ah
- DB 0,0 ; add %al,(%eax)
- DB 0,209 ; add %dl,%cl
- DB 0,0 ; add %al,(%eax)
- DB 0,198 ; add %al,%dh
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_store_565_sse2_8bit
-_sk_store_565_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 9bce <_sk_store_565_sse2_8bit+0xe>
- DB 95 ; pop %edi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,114,4 ; mov 0x4(%edx),%esi
- DB 15,175,117,20 ; imul 0x14(%ebp),%esi
- DB 1,246 ; add %esi,%esi
- DB 3,50 ; add (%edx),%esi
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 102,15,111,167,114,108,0,0 ; movdqa 0x6c72(%edi),%xmm4
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 102,15,219,224 ; pand %xmm0,%xmm4
- DB 102,15,114,244,8 ; pslld $0x8,%xmm4
- DB 102,15,114,245,8 ; pslld $0x8,%xmm5
- DB 102,15,111,183,130,108,0,0 ; movdqa 0x6c82(%edi),%xmm6
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 102,15,219,240 ; pand %xmm0,%xmm6
- DB 102,15,114,214,5 ; psrld $0x5,%xmm6
- DB 102,15,235,244 ; por %xmm4,%xmm6
- DB 102,15,114,215,5 ; psrld $0x5,%xmm7
- DB 102,15,235,253 ; por %xmm5,%xmm7
- DB 102,15,111,175,146,108,0,0 ; movdqa 0x6c92(%edi),%xmm5
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,219,229 ; pand %xmm5,%xmm4
- DB 102,15,219,233 ; pand %xmm1,%xmm5
- DB 102,15,114,213,19 ; psrld $0x13,%xmm5
- DB 102,15,235,239 ; por %xmm7,%xmm5
- DB 102,15,114,212,19 ; psrld $0x13,%xmm4
- DB 102,15,235,230 ; por %xmm6,%xmm4
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,114,229,16 ; psrad $0x10,%xmm5
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,229 ; packssdw %xmm5,%xmm4
- DB 133,210 ; test %edx,%edx
- DB 139,93,16 ; mov 0x10(%ebp),%ebx
- DB 117,25 ; jne 9c84 <_sk_store_565_sse2_8bit+0xc4>
- DB 243,15,127,36,94 ; movdqu %xmm4,(%esi,%ebx,2)
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 83 ; push %ebx
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 119,224 ; ja 9c70 <_sk_store_565_sse2_8bit+0xb0>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 3,188,143,14,1,0,0 ; add 0x10e(%edi,%ecx,4),%edi
- DB 255,231 ; jmp *%edi
- DB 102,15,126,225 ; movd %xmm4,%ecx
- DB 102,137,12,94 ; mov %cx,(%esi,%ebx,2)
- DB 235,202 ; jmp 9c70 <_sk_store_565_sse2_8bit+0xb0>
- DB 102,15,197,204,2 ; pextrw $0x2,%xmm4,%ecx
- DB 102,137,76,94,4 ; mov %cx,0x4(%esi,%ebx,2)
- DB 102,15,126,36,94 ; movd %xmm4,(%esi,%ebx,2)
- DB 235,185 ; jmp 9c70 <_sk_store_565_sse2_8bit+0xb0>
- DB 102,15,197,204,6 ; pextrw $0x6,%xmm4,%ecx
- DB 102,137,76,94,12 ; mov %cx,0xc(%esi,%ebx,2)
- DB 102,15,197,204,5 ; pextrw $0x5,%xmm4,%ecx
- DB 102,137,76,94,10 ; mov %cx,0xa(%esi,%ebx,2)
- DB 102,15,197,204,4 ; pextrw $0x4,%xmm4,%ecx
- DB 102,137,76,94,8 ; mov %cx,0x8(%esi,%ebx,2)
- DB 102,15,214,36,94 ; movq %xmm4,(%esi,%ebx,2)
- DB 235,148 ; jmp 9c70 <_sk_store_565_sse2_8bit+0xb0>
- DB 206 ; into
- DB 0,0 ; add %al,(%eax)
- DB 0,226 ; add %ah,%dl
- DB 0,0 ; add %al,(%eax)
- DB 0,216 ; add %bl,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,7 ; add %al,(%edi)
- DB 1,0 ; add %eax,(%eax)
- DB 0,253 ; add %bh,%ch
- DB 0,0 ; add %al,(%eax)
- DB 0,243 ; add %dh,%bl
- DB 0,0 ; add %al,(%eax)
- DB 0,233 ; add %ch,%cl
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_565_dst_sse2_8bit
-_sk_load_565_dst_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,28 ; sub $0x1c,%esp
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 232,0,0,0,0 ; call 9d0a <_sk_load_565_dst_sse2_8bit+0x12>
- DB 94 ; pop %esi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,90,4 ; mov 0x4(%edx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 1,219 ; add %ebx,%ebx
- DB 3,26 ; add (%edx),%ebx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,125,16 ; mov 0x10(%ebp),%edi
- DB 15,133,235,0,0,0 ; jne 9e14 <_sk_load_565_dst_sse2_8bit+0x11c>
- DB 243,15,111,20,123 ; movdqu (%ebx,%edi,2),%xmm2
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,105,220 ; punpckhwd %xmm4,%xmm3
- DB 102,15,97,212 ; punpcklwd %xmm4,%xmm2
- DB 102,15,111,182,86,102,0,0 ; movdqa 0x6656(%esi),%xmm6
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 102,15,219,243 ; pand %xmm3,%xmm6
- DB 102,15,114,214,8 ; psrld $0x8,%xmm6
- DB 102,15,114,215,8 ; psrld $0x8,%xmm7
- DB 102,15,111,174,150,102,0,0 ; movdqa 0x6696(%esi),%xmm5
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,219,229 ; pand %xmm5,%xmm4
- DB 102,15,219,235 ; pand %xmm3,%xmm5
- DB 102,15,114,245,19 ; pslld $0x13,%xmm5
- DB 102,15,235,238 ; por %xmm6,%xmm5
- DB 102,15,114,244,19 ; pslld $0x13,%xmm4
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 102,15,111,182,118,102,0,0 ; movdqa 0x6676(%esi),%xmm6
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 102,15,219,242 ; pand %xmm2,%xmm6
- DB 102,15,111,142,118,107,0,0 ; movdqa 0x6b76(%esi),%xmm1
- DB 102,15,219,217 ; pand %xmm1,%xmm3
- DB 102,15,219,209 ; pand %xmm1,%xmm2
- DB 102,15,114,247,5 ; pslld $0x5,%xmm7
- DB 102,15,114,211,1 ; psrld $0x1,%xmm3
- DB 102,15,235,223 ; por %xmm7,%xmm3
- DB 102,15,235,221 ; por %xmm5,%xmm3
- DB 102,15,114,213,5 ; psrld $0x5,%xmm5
- DB 102,15,114,246,5 ; pslld $0x5,%xmm6
- DB 102,15,114,210,1 ; psrld $0x1,%xmm2
- DB 102,15,235,214 ; por %xmm6,%xmm2
- DB 102,15,235,212 ; por %xmm4,%xmm2
- DB 102,15,114,212,5 ; psrld $0x5,%xmm4
- DB 102,15,111,142,102,107,0,0 ; movdqa 0x6b66(%esi),%xmm1
- DB 102,15,219,225 ; pand %xmm1,%xmm4
- DB 102,15,219,233 ; pand %xmm1,%xmm5
- DB 102,15,111,142,38,107,0,0 ; movdqa 0x6b26(%esi),%xmm1
- DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,15,235,212 ; por %xmm4,%xmm2
- DB 102,15,235,217 ; por %xmm1,%xmm3
- DB 102,15,235,221 ; por %xmm5,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,40,77,216 ; movaps -0x28(%ebp),%xmm1
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 87 ; push %edi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,44 ; add $0x2c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 15,135,6,255,255,255 ; ja 9d2e <_sk_load_565_dst_sse2_8bit+0x36>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,142,118,1,0,0 ; mov 0x176(%esi,%ecx,4),%ecx
- DB 1,241 ; add %esi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,183,12,123 ; movzwl (%ebx,%edi,2),%ecx
- DB 102,15,110,209 ; movd %ecx,%xmm2
- DB 233,235,254,255,255 ; jmp 9d2e <_sk_load_565_dst_sse2_8bit+0x36>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,196,84,123,4,2 ; pinsrw $0x2,0x4(%ebx,%edi,2),%xmm2
- DB 243,15,16,28,123 ; movss (%ebx,%edi,2),%xmm3
- DB 243,15,16,211 ; movss %xmm3,%xmm2
- DB 233,210,254,255,255 ; jmp 9d2e <_sk_load_565_dst_sse2_8bit+0x36>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,196,84,123,12,6 ; pinsrw $0x6,0xc(%ebx,%edi,2),%xmm2
- DB 102,15,196,84,123,10,5 ; pinsrw $0x5,0xa(%ebx,%edi,2),%xmm2
- DB 102,15,196,84,123,8,4 ; pinsrw $0x4,0x8(%ebx,%edi,2),%xmm2
- DB 102,15,18,20,123 ; movlpd (%ebx,%edi,2),%xmm2
- DB 233,175,254,255,255 ; jmp 9d2e <_sk_load_565_dst_sse2_8bit+0x36>
- DB 144 ; nop
- DB 44,1 ; sub $0x1,%al
- DB 0,0 ; add %al,(%eax)
- DB 68 ; inc %esp
- DB 1,0 ; add %eax,(%eax)
- DB 0,57 ; add %bh,(%ecx)
- DB 1,0 ; add %eax,(%eax)
- DB 0,107,1 ; add %ch,0x1(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 100,1,0 ; add %eax,%fs:(%eax)
- DB 0,93,1 ; add %bl,0x1(%ebp)
- DB 0,0 ; add %al,(%eax)
- DB 82 ; push %edx
- DB 1,0 ; add %eax,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_a8_sse2_8bit
-_sk_load_a8_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 9eaa <_sk_load_a8_sse2_8bit+0xe>
- DB 95 ; pop %edi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,90,4 ; mov 0x4(%edx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,26 ; add (%edx),%ebx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 117,63 ; jne 9f02 <_sk_load_a8_sse2_8bit+0x66>
- DB 243,15,126,4,51 ; movq (%ebx,%esi,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 102,15,219,135,230,105,0,0 ; pand 0x69e6(%edi),%xmm0
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,105,204 ; punpckhwd %xmm4,%xmm1
- DB 102,15,97,196 ; punpcklwd %xmm4,%xmm0
- DB 102,15,114,240,24 ; pslld $0x18,%xmm0
- DB 102,15,114,241,24 ; pslld $0x18,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 119,186 ; ja 9ecc <_sk_load_a8_sse2_8bit+0x30>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,214,0,0,0 ; mov 0xd6(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,193 ; movd %ecx,%xmm0
- DB 235,162 ; jmp 9ecc <_sk_load_a8_sse2_8bit+0x30>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,193,2 ; pinsrw $0x2,%ecx,%xmm0
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,201 ; movd %ecx,%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 243,15,16,193 ; movss %xmm1,%xmm0
- DB 235,130 ; jmp 9ecc <_sk_load_a8_sse2_8bit+0x30>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,193,6 ; pinsrw $0x6,%ecx,%xmm0
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,193,5 ; pinsrw $0x5,%ecx,%xmm0
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,193,4 ; pinsrw $0x4,%ecx,%xmm0
- DB 102,15,110,12,51 ; movd (%ebx,%esi,1),%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 242,15,16,193 ; movsd %xmm1,%xmm0
- DB 233,78,255,255,255 ; jmp 9ecc <_sk_load_a8_sse2_8bit+0x30>
- DB 102,144 ; xchg %ax,%ax
- DB 118,0 ; jbe 9f82 <_sk_load_a8_sse2_8bit+0xe6>
- DB 0,0 ; add %al,(%eax)
- DB 142,0 ; mov (%eax),%es
- DB 0,0 ; add %al,(%eax)
- DB 128,0,0 ; addb $0x0,(%eax)
- DB 0,194 ; add %al,%dl
- DB 0,0 ; add %al,(%eax)
- DB 0,184,0,0,0,174 ; add %bh,-0x52000000(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
- DB 160 ; .byte 0xa0
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_a8_dst_sse2_8bit
-_sk_load_a8_dst_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 9faa <_sk_load_a8_dst_sse2_8bit+0xe>
- DB 95 ; pop %edi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,90,4 ; mov 0x4(%edx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,26 ; add (%edx),%ebx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 117,63 ; jne a002 <_sk_load_a8_dst_sse2_8bit+0x66>
- DB 243,15,126,20,51 ; movq (%ebx,%esi,1),%xmm2
- DB 102,15,96,208 ; punpcklbw %xmm0,%xmm2
- DB 102,15,219,151,230,104,0,0 ; pand 0x68e6(%edi),%xmm2
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,105,220 ; punpckhwd %xmm4,%xmm3
- DB 102,15,97,212 ; punpcklwd %xmm4,%xmm2
- DB 102,15,114,242,24 ; pslld $0x18,%xmm2
- DB 102,15,114,243,24 ; pslld $0x18,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 119,186 ; ja 9fcc <_sk_load_a8_dst_sse2_8bit+0x30>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,214,0,0,0 ; mov 0xd6(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,209 ; movd %ecx,%xmm2
- DB 235,162 ; jmp 9fcc <_sk_load_a8_dst_sse2_8bit+0x30>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,196,209,2 ; pinsrw $0x2,%ecx,%xmm2
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 243,15,16,211 ; movss %xmm3,%xmm2
- DB 235,130 ; jmp 9fcc <_sk_load_a8_dst_sse2_8bit+0x30>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,196,209,6 ; pinsrw $0x6,%ecx,%xmm2
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,209,5 ; pinsrw $0x5,%ecx,%xmm2
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,209,4 ; pinsrw $0x4,%ecx,%xmm2
- DB 102,15,110,28,51 ; movd (%ebx,%esi,1),%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 242,15,16,211 ; movsd %xmm3,%xmm2
- DB 233,78,255,255,255 ; jmp 9fcc <_sk_load_a8_dst_sse2_8bit+0x30>
- DB 102,144 ; xchg %ax,%ax
- DB 118,0 ; jbe a082 <_sk_load_a8_dst_sse2_8bit+0xe6>
- DB 0,0 ; add %al,(%eax)
- DB 142,0 ; mov (%eax),%es
- DB 0,0 ; add %al,(%eax)
- DB 128,0,0 ; addb $0x0,(%eax)
- DB 0,194 ; add %al,%dl
- DB 0,0 ; add %al,(%eax)
- DB 0,184,0,0,0,174 ; add %bh,-0x52000000(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
- DB 160 ; .byte 0xa0
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_store_a8_sse2_8bit
-_sk_store_a8_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call a0aa <_sk_store_a8_sse2_8bit+0xe>
- DB 91 ; pop %ebx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,114,4 ; mov 0x4(%edx),%esi
- DB 15,175,117,20 ; imul 0x14(%ebp),%esi
- DB 3,50 ; add (%edx),%esi
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,114,212,24 ; psrld $0x18,%xmm4
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,114,213,24 ; psrld $0x18,%xmm5
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,114,229,16 ; psrad $0x10,%xmm5
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,229 ; packssdw %xmm5,%xmm4
- DB 133,210 ; test %edx,%edx
- DB 139,125,16 ; mov 0x10(%ebp),%edi
- DB 117,37 ; jne a112 <_sk_store_a8_sse2_8bit+0x76>
- DB 102,15,219,163,230,103,0,0 ; pand 0x67e6(%ebx),%xmm4
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,15,214,36,62 ; movq %xmm4,(%esi,%edi,1)
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 87 ; push %edi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 119,224 ; ja a0fe <_sk_store_a8_sse2_8bit+0x62>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,139,222,0,0,0 ; mov 0xde(%ebx,%ecx,4),%ecx
- DB 1,217 ; add %ebx,%ecx
- DB 255,225 ; jmp *%ecx
- DB 102,15,126,225 ; movd %xmm4,%ecx
- DB 136,12,62 ; mov %cl,(%esi,%edi,1)
- DB 235,201 ; jmp a0fe <_sk_store_a8_sse2_8bit+0x62>
- DB 102,15,197,204,2 ; pextrw $0x2,%xmm4,%ecx
- DB 136,76,62,2 ; mov %cl,0x2(%esi,%edi,1)
- DB 102,15,219,163,230,103,0,0 ; pand 0x67e6(%ebx),%xmm4
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,15,126,225 ; movd %xmm4,%ecx
- DB 102,137,12,62 ; mov %cx,(%esi,%edi,1)
- DB 235,170 ; jmp a0fe <_sk_store_a8_sse2_8bit+0x62>
- DB 102,15,197,204,6 ; pextrw $0x6,%xmm4,%ecx
- DB 136,76,62,6 ; mov %cl,0x6(%esi,%edi,1)
- DB 102,15,197,204,5 ; pextrw $0x5,%xmm4,%ecx
- DB 136,76,62,5 ; mov %cl,0x5(%esi,%edi,1)
- DB 102,15,197,204,4 ; pextrw $0x4,%xmm4,%ecx
- DB 136,76,62,4 ; mov %cl,0x4(%esi,%edi,1)
- DB 102,15,219,163,230,103,0,0 ; pand 0x67e6(%ebx),%xmm4
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,15,126,36,62 ; movd %xmm4,(%esi,%edi,1)
- DB 233,121,255,255,255 ; jmp a0fe <_sk_store_a8_sse2_8bit+0x62>
- DB 15,31,0 ; nopl (%eax)
- DB 130,0,0 ; addb $0x0,(%eax)
- DB 0,148,0,0,0,139,0 ; add %dl,0x8b0000(%eax,%eax,1)
- DB 0,0 ; add %al,(%eax)
- DB 197,0 ; lds (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 188,0,0,0,179 ; mov $0xb3000000,%esp
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
- DB 170 ; stos %al,%es:(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_g8_sse2_8bit
-_sk_load_g8_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call a1b2 <_sk_load_g8_sse2_8bit+0xe>
- DB 95 ; pop %edi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,90,4 ; mov 0x4(%edx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,26 ; add (%edx),%ebx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 15,133,131,0,0,0 ; jne a252 <_sk_load_g8_sse2_8bit+0xae>
- DB 243,15,126,4,51 ; movq (%ebx,%esi,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 102,15,219,135,222,102,0,0 ; pand 0x66de(%edi),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,97,225 ; punpcklwd %xmm1,%xmm4
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,111,175,238,102,0,0 ; movdqa 0x66ee(%edi),%xmm5
- DB 102,15,112,240,245 ; pshufd $0xf5,%xmm0,%xmm6
- DB 102,15,244,197 ; pmuludq %xmm5,%xmm0
- DB 102,15,112,200,232 ; pshufd $0xe8,%xmm0,%xmm1
- DB 102,15,244,245 ; pmuludq %xmm5,%xmm6
- DB 102,15,112,198,232 ; pshufd $0xe8,%xmm6,%xmm0
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,15,112,244,245 ; pshufd $0xf5,%xmm4,%xmm6
- DB 102,15,244,229 ; pmuludq %xmm5,%xmm4
- DB 102,15,112,196,232 ; pshufd $0xe8,%xmm4,%xmm0
- DB 102,15,244,245 ; pmuludq %xmm5,%xmm6
- DB 102,15,112,230,232 ; pshufd $0xe8,%xmm6,%xmm4
- DB 102,15,98,196 ; punpckldq %xmm4,%xmm0
- DB 102,15,111,167,126,102,0,0 ; movdqa 0x667e(%edi),%xmm4
- DB 102,15,235,196 ; por %xmm4,%xmm0
- DB 102,15,235,204 ; por %xmm4,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 15,135,114,255,255,255 ; ja a1d8 <_sk_load_g8_sse2_8bit+0x34>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,38,1,0,0 ; mov 0x126(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,193 ; movd %ecx,%xmm0
- DB 233,87,255,255,255 ; jmp a1d8 <_sk_load_g8_sse2_8bit+0x34>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,193,2 ; pinsrw $0x2,%ecx,%xmm0
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,201 ; movd %ecx,%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 243,15,16,193 ; movss %xmm1,%xmm0
- DB 233,52,255,255,255 ; jmp a1d8 <_sk_load_g8_sse2_8bit+0x34>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,193,6 ; pinsrw $0x6,%ecx,%xmm0
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,193,5 ; pinsrw $0x5,%ecx,%xmm0
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,193,4 ; pinsrw $0x4,%ecx,%xmm0
- DB 102,15,110,12,51 ; movd (%ebx,%esi,1),%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 242,15,16,193 ; movsd %xmm1,%xmm0
- DB 233,0,255,255,255 ; jmp a1d8 <_sk_load_g8_sse2_8bit+0x34>
- DB 194,0,0 ; ret $0x0
- DB 0,221 ; add %bl,%ch
- DB 0,0 ; add %al,(%eax)
- DB 0,207 ; add %cl,%bh
- DB 0,0 ; add %al,(%eax)
- DB 0,20,1 ; add %dl,(%ecx,%eax,1)
- DB 0,0 ; add %al,(%eax)
- DB 10,1 ; or (%ecx),%al
- DB 0,0 ; add %al,(%eax)
- DB 0,1 ; add %al,(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 242,0,0 ; repnz add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_g8_dst_sse2_8bit
-_sk_load_g8_dst_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call a302 <_sk_load_g8_dst_sse2_8bit+0xe>
- DB 95 ; pop %edi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,90,4 ; mov 0x4(%edx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,26 ; add (%edx),%ebx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 15,133,131,0,0,0 ; jne a3a2 <_sk_load_g8_dst_sse2_8bit+0xae>
- DB 243,15,126,20,51 ; movq (%ebx,%esi,1),%xmm2
- DB 102,15,96,208 ; punpcklbw %xmm0,%xmm2
- DB 102,15,219,151,142,101,0,0 ; pand 0x658e(%edi),%xmm2
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,97,227 ; punpcklwd %xmm3,%xmm4
- DB 102,15,105,211 ; punpckhwd %xmm3,%xmm2
- DB 102,15,111,175,158,101,0,0 ; movdqa 0x659e(%edi),%xmm5
- DB 102,15,112,242,245 ; pshufd $0xf5,%xmm2,%xmm6
- DB 102,15,244,213 ; pmuludq %xmm5,%xmm2
- DB 102,15,112,218,232 ; pshufd $0xe8,%xmm2,%xmm3
- DB 102,15,244,245 ; pmuludq %xmm5,%xmm6
- DB 102,15,112,214,232 ; pshufd $0xe8,%xmm6,%xmm2
- DB 102,15,98,218 ; punpckldq %xmm2,%xmm3
- DB 102,15,112,244,245 ; pshufd $0xf5,%xmm4,%xmm6
- DB 102,15,244,229 ; pmuludq %xmm5,%xmm4
- DB 102,15,112,212,232 ; pshufd $0xe8,%xmm4,%xmm2
- DB 102,15,244,245 ; pmuludq %xmm5,%xmm6
- DB 102,15,112,230,232 ; pshufd $0xe8,%xmm6,%xmm4
- DB 102,15,98,212 ; punpckldq %xmm4,%xmm2
- DB 102,15,111,167,46,101,0,0 ; movdqa 0x652e(%edi),%xmm4
- DB 102,15,235,212 ; por %xmm4,%xmm2
- DB 102,15,235,220 ; por %xmm4,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 15,135,114,255,255,255 ; ja a328 <_sk_load_g8_dst_sse2_8bit+0x34>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,38,1,0,0 ; mov 0x126(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,209 ; movd %ecx,%xmm2
- DB 233,87,255,255,255 ; jmp a328 <_sk_load_g8_dst_sse2_8bit+0x34>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,196,209,2 ; pinsrw $0x2,%ecx,%xmm2
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 243,15,16,211 ; movss %xmm3,%xmm2
- DB 233,52,255,255,255 ; jmp a328 <_sk_load_g8_dst_sse2_8bit+0x34>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,196,209,6 ; pinsrw $0x6,%ecx,%xmm2
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,209,5 ; pinsrw $0x5,%ecx,%xmm2
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,209,4 ; pinsrw $0x4,%ecx,%xmm2
- DB 102,15,110,28,51 ; movd (%ebx,%esi,1),%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 242,15,16,211 ; movsd %xmm3,%xmm2
- DB 233,0,255,255,255 ; jmp a328 <_sk_load_g8_dst_sse2_8bit+0x34>
- DB 194,0,0 ; ret $0x0
- DB 0,221 ; add %bl,%ch
- DB 0,0 ; add %al,(%eax)
- DB 0,207 ; add %cl,%bh
- DB 0,0 ; add %al,(%eax)
- DB 0,20,1 ; add %dl,(%ecx,%eax,1)
- DB 0,0 ; add %al,(%eax)
- DB 10,1 ; or (%ecx),%al
- DB 0,0 ; add %al,(%eax)
- DB 0,1 ; add %al,(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 242,0,0 ; repnz add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_srcover_rgba_8888_sse2_8bit
-_sk_srcover_rgba_8888_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,124 ; sub $0x7c,%esp
- DB 15,41,157,120,255,255,255 ; movaps %xmm3,-0x88(%ebp)
- DB 102,15,127,85,136 ; movdqa %xmm2,-0x78(%ebp)
- DB 232,0,0,0,0 ; call a45e <_sk_srcover_rgba_8888_sse2_8bit+0x1a>
- DB 91 ; pop %ebx
- DB 139,77,20 ; mov 0x14(%ebp),%ecx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,122,4 ; mov 0x4(%edx),%edi
- DB 15,175,249 ; imul %ecx,%edi
- DB 193,231,2 ; shl $0x2,%edi
- DB 3,58 ; add (%edx),%edi
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 15,133,51,1,0,0 ; jne a5b3 <_sk_srcover_rgba_8888_sse2_8bit+0x16f>
- DB 102,15,16,20,183 ; movupd (%edi,%esi,4),%xmm2
- DB 15,16,116,183,16 ; movups 0x10(%edi,%esi,4),%xmm6
- DB 102,15,41,85,200 ; movapd %xmm2,-0x38(%ebp)
- DB 15,41,117,216 ; movaps %xmm6,-0x28(%ebp)
- DB 242,15,112,217,231 ; pshuflw $0xe7,%xmm1,%xmm3
- DB 243,15,112,219,231 ; pshufhw $0xe7,%xmm3,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,96,219 ; punpcklbw %xmm3,%xmm3
- DB 242,15,112,219,95 ; pshuflw $0x5f,%xmm3,%xmm3
- DB 243,15,112,219,95 ; pshufhw $0x5f,%xmm3,%xmm3
- DB 15,41,69,184 ; movaps %xmm0,-0x48(%ebp)
- DB 242,15,112,101,184,231 ; pshuflw $0xe7,-0x48(%ebp),%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm4
- DB 102,15,87,210 ; xorpd %xmm2,%xmm2
- DB 102,15,111,109,200 ; movdqa -0x38(%ebp),%xmm5
- DB 102,15,96,234 ; punpcklbw %xmm2,%xmm5
- DB 102,15,127,77,152 ; movdqa %xmm1,-0x68(%ebp)
- DB 102,15,111,77,200 ; movdqa -0x38(%ebp),%xmm1
- DB 102,15,104,202 ; punpckhbw %xmm2,%xmm1
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 102,15,96,194 ; punpcklbw %xmm2,%xmm0
- DB 102,15,104,242 ; punpckhbw %xmm2,%xmm6
- DB 102,15,127,117,168 ; movdqa %xmm6,-0x58(%ebp)
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,96,250 ; punpcklbw %xmm2,%xmm7
- DB 102,15,104,226 ; punpckhbw %xmm2,%xmm4
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,96,242 ; punpcklbw %xmm2,%xmm6
- DB 102,15,104,218 ; punpckhbw %xmm2,%xmm3
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,253,253 ; paddw %xmm5,%xmm7
- DB 102,15,111,109,200 ; movdqa -0x38(%ebp),%xmm5
- DB 102,15,213,225 ; pmullw %xmm1,%xmm4
- DB 102,15,253,225 ; paddw %xmm1,%xmm4
- DB 102,15,111,77,152 ; movdqa -0x68(%ebp),%xmm1
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,15,253,240 ; paddw %xmm0,%xmm6
- DB 102,15,111,69,168 ; movdqa -0x58(%ebp),%xmm0
- DB 102,15,213,216 ; pmullw %xmm0,%xmm3
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,243 ; packuswb %xmm3,%xmm6
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,111,69,184 ; movdqa -0x48(%ebp),%xmm0
- DB 102,15,111,85,216 ; movdqa -0x28(%ebp),%xmm2
- DB 102,15,248,214 ; psubb %xmm6,%xmm2
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,93,216 ; movdqa -0x28(%ebp),%xmm3
- DB 102,15,248,239 ; psubb %xmm7,%xmm5
- DB 133,210 ; test %edx,%edx
- DB 102,15,252,232 ; paddb %xmm0,%xmm5
- DB 102,15,252,217 ; paddb %xmm1,%xmm3
- DB 117,98 ; jne a5ea <_sk_srcover_rgba_8888_sse2_8bit+0x1a6>
- DB 243,15,127,44,183 ; movdqu %xmm5,(%edi,%esi,4)
- DB 243,15,127,92,183,16 ; movdqu %xmm3,0x10(%edi,%esi,4)
- DB 141,120,8 ; lea 0x8(%eax),%edi
- DB 15,40,85,136 ; movaps -0x78(%ebp),%xmm2
- DB 15,40,157,120,255,255,255 ; movaps -0x88(%ebp),%xmm3
- DB 81 ; push %ecx
- DB 86 ; push %esi
- DB 87 ; push %edi
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 129,196,140,0,0,0 ; add $0x8c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,93,216 ; mov %ebx,-0x28(%ebp)
- DB 137,211 ; mov %edx,%ebx
- DB 136,93,200 ; mov %bl,-0x38(%ebp)
- DB 128,101,200,7 ; andb $0x7,-0x38(%ebp)
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 254,77,200 ; decb -0x38(%ebp)
- DB 128,125,200,6 ; cmpb $0x6,-0x38(%ebp)
- DB 119,66 ; ja a612 <_sk_srcover_rgba_8888_sse2_8bit+0x1ce>
- DB 15,182,93,200 ; movzbl -0x38(%ebp),%ebx
- DB 139,69,216 ; mov -0x28(%ebp),%eax
- DB 139,156,152,66,2,0,0 ; mov 0x242(%eax,%ebx,4),%ebx
- DB 3,93,216 ; add -0x28(%ebp),%ebx
- DB 255,227 ; jmp *%ebx
- DB 243,15,16,20,183 ; movss (%edi,%esi,4),%xmm2
- DB 235,109 ; jmp a657 <_sk_srcover_rgba_8888_sse2_8bit+0x213>
- DB 137,93,216 ; mov %ebx,-0x28(%ebp)
- DB 137,211 ; mov %edx,%ebx
- DB 128,227,7 ; and $0x7,%bl
- DB 254,203 ; dec %bl
- DB 128,251,6 ; cmp $0x6,%bl
- DB 119,154 ; ja a593 <_sk_srcover_rgba_8888_sse2_8bit+0x14f>
- DB 15,182,219 ; movzbl %bl,%ebx
- DB 139,77,216 ; mov -0x28(%ebp),%ecx
- DB 3,140,153,94,2,0,0 ; add 0x25e(%ecx,%ebx,4),%ecx
- DB 255,225 ; jmp *%ecx
- DB 102,15,126,44,183 ; movd %xmm5,(%edi,%esi,4)
- DB 233,131,0,0,0 ; jmp a695 <_sk_srcover_rgba_8888_sse2_8bit+0x251>
- DB 139,93,216 ; mov -0x28(%ebp),%ebx
- DB 233,112,254,255,255 ; jmp a48a <_sk_srcover_rgba_8888_sse2_8bit+0x46>
- DB 102,15,110,92,183,8 ; movd 0x8(%edi,%esi,4),%xmm3
- DB 102,15,112,211,69 ; pshufd $0x45,%xmm3,%xmm2
- DB 102,15,18,20,183 ; movlpd (%edi,%esi,4),%xmm2
- DB 235,43 ; jmp a657 <_sk_srcover_rgba_8888_sse2_8bit+0x213>
- DB 102,15,110,84,183,24 ; movd 0x18(%edi,%esi,4),%xmm2
- DB 102,15,112,242,69 ; pshufd $0x45,%xmm2,%xmm6
- DB 243,15,16,92,183,20 ; movss 0x14(%edi,%esi,4),%xmm3
- DB 15,198,222,0 ; shufps $0x0,%xmm6,%xmm3
- DB 15,198,222,226 ; shufps $0xe2,%xmm6,%xmm3
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 243,15,16,92,183,16 ; movss 0x10(%edi,%esi,4),%xmm3
- DB 243,15,16,243 ; movss %xmm3,%xmm6
- DB 102,15,16,20,183 ; movupd (%edi,%esi,4),%xmm2
- DB 139,93,216 ; mov -0x28(%ebp),%ebx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 233,40,254,255,255 ; jmp a48a <_sk_srcover_rgba_8888_sse2_8bit+0x46>
- DB 102,15,112,213,78 ; pshufd $0x4e,%xmm5,%xmm2
- DB 102,15,126,84,183,8 ; movd %xmm2,0x8(%edi,%esi,4)
- DB 102,15,214,44,183 ; movq %xmm5,(%edi,%esi,4)
- DB 235,33 ; jmp a695 <_sk_srcover_rgba_8888_sse2_8bit+0x251>
- DB 102,15,112,211,78 ; pshufd $0x4e,%xmm3,%xmm2
- DB 102,15,126,84,183,24 ; movd %xmm2,0x18(%edi,%esi,4)
- DB 102,15,112,211,229 ; pshufd $0xe5,%xmm3,%xmm2
- DB 102,15,126,84,183,20 ; movd %xmm2,0x14(%edi,%esi,4)
- DB 102,15,126,92,183,16 ; movd %xmm3,0x10(%edi,%esi,4)
- DB 243,15,127,44,183 ; movdqu %xmm5,(%edi,%esi,4)
- DB 139,77,20 ; mov 0x14(%ebp),%ecx
- DB 233,246,254,255,255 ; jmp a593 <_sk_srcover_rgba_8888_sse2_8bit+0x14f>
- DB 15,31,0 ; nopl (%eax)
- DB 133,1 ; test %eax,(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 199,1,0,0,188,1 ; movl $0x1bc0000,(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 244 ; hlt
- DB 1,0 ; add %eax,(%eax)
- DB 0,234 ; add %ch,%dl
- DB 1,0 ; add %eax,(%eax)
- DB 0,217 ; add %bl,%cl
- DB 1,0 ; add %eax,(%eax)
- DB 0,206 ; add %cl,%dh
- DB 1,0 ; add %eax,(%eax)
- DB 0,170,1,0,0,15 ; add %ch,0xf000001(%edx)
- DB 2,0 ; add (%eax),%al
- DB 0,4,2 ; add %al,(%edx,%eax,1)
- DB 0,0 ; add %al,(%eax)
- DB 50,2 ; xor (%edx),%al
- DB 0,0 ; add %al,(%eax)
- DB 44,2 ; sub $0x2,%al
- DB 0,0 ; add %al,(%eax)
- DB 33,2 ; and %eax,(%edx)
- DB 0,0 ; add %al,(%eax)
- DB 22 ; push %ss
- DB 2,0 ; add (%eax),%al
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_scale_1_float_sse2_8bit
-_sk_scale_1_float_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,40 ; sub $0x28,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 232,0,0,0,0 ; call a6f3 <_sk_scale_1_float_sse2_8bit+0x1b>
- DB 89 ; pop %ecx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 243,15,16,2 ; movss (%edx),%xmm0
- DB 243,15,89,129,113,98,0,0 ; mulss 0x6271(%ecx),%xmm0
- DB 243,15,44,208 ; cvttss2si %xmm0,%edx
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,15,111,213 ; movdqa %xmm5,%xmm2
- DB 102,15,96,214 ; punpcklbw %xmm6,%xmm2
- DB 102,15,104,238 ; punpckhbw %xmm6,%xmm5
- DB 102,15,96,206 ; punpcklbw %xmm6,%xmm1
- DB 102,15,104,230 ; punpckhbw %xmm6,%xmm4
- DB 102,15,110,242 ; movd %edx,%xmm6
- DB 102,15,96,246 ; punpcklbw %xmm6,%xmm6
- DB 242,15,112,246,0 ; pshuflw $0x0,%xmm6,%xmm6
- DB 102,15,112,246,80 ; pshufd $0x50,%xmm6,%xmm6
- DB 102,15,219,177,157,97,0,0 ; pand 0x619d(%ecx),%xmm6
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,111,222 ; movdqa %xmm6,%xmm3
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,213,242 ; pmullw %xmm2,%xmm6
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,15,213,197 ; pmullw %xmm5,%xmm0
- DB 102,15,253,197 ; paddw %xmm5,%xmm0
- DB 102,15,213,217 ; pmullw %xmm1,%xmm3
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,207 ; packuswb %xmm7,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,103,208 ; packuswb %xmm0,%xmm2
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 15,40,85,232 ; movaps -0x18(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,56 ; add $0x38,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_scale_u8_sse2_8bit
-_sk_scale_u8_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,60 ; sub $0x3c,%esp
- DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
- DB 102,15,127,85,200 ; movdqa %xmm2,-0x38(%ebp)
- DB 232,0,0,0,0 ; call a7bb <_sk_scale_u8_sse2_8bit+0x17>
- DB 95 ; pop %edi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,90,4 ; mov 0x4(%edx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,26 ; add (%edx),%ebx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 15,133,11,1,0,0 ; jne a8e3 <_sk_scale_u8_sse2_8bit+0x13f>
- DB 243,15,126,36,51 ; movq (%ebx,%esi,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,219,167,213,96,0,0 ; pand 0x60d5(%edi),%xmm4
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,105,234 ; punpckhwd %xmm2,%xmm5
- DB 102,15,97,226 ; punpcklwd %xmm2,%xmm4
- DB 102,15,114,244,24 ; pslld $0x18,%xmm4
- DB 102,15,114,245,24 ; pslld $0x18,%xmm5
- DB 242,15,112,237,231 ; pshuflw $0xe7,%xmm5,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,245,95 ; pshufhw $0x5f,%xmm5,%xmm6
- DB 242,15,112,228,231 ; pshuflw $0xe7,%xmm4,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,252,95 ; pshufhw $0x5f,%xmm4,%xmm7
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,96,221 ; punpcklbw %xmm5,%xmm3
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,96,213 ; punpcklbw %xmm5,%xmm2
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,104,205 ; punpckhbw %xmm5,%xmm1
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,96,229 ; punpcklbw %xmm5,%xmm4
- DB 102,15,104,253 ; punpckhbw %xmm5,%xmm7
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,96,234 ; punpcklbw %xmm2,%xmm5
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,104,242 ; punpckhbw %xmm2,%xmm6
- DB 102,15,213,227 ; pmullw %xmm3,%xmm4
- DB 102,15,253,227 ; paddw %xmm3,%xmm4
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 102,15,111,69,216 ; movdqa -0x28(%ebp),%xmm0
- DB 102,15,213,232 ; pmullw %xmm0,%xmm5
- DB 102,15,253,232 ; paddw %xmm0,%xmm5
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,15,253,241 ; paddw %xmm1,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,231 ; packuswb %xmm7,%xmm4
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,76 ; add $0x4c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 15,135,234,254,255,255 ; ja a7e1 <_sk_scale_u8_sse2_8bit+0x3d>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,177,1,0,0 ; mov 0x1b1(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 233,207,254,255,255 ; jmp a7e1 <_sk_scale_u8_sse2_8bit+0x3d>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,225,2 ; pinsrw $0x2,%ecx,%xmm4
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 243,15,16,227 ; movss %xmm3,%xmm4
- DB 233,172,254,255,255 ; jmp a7e1 <_sk_scale_u8_sse2_8bit+0x3d>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,225,6 ; pinsrw $0x6,%ecx,%xmm4
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,225,5 ; pinsrw $0x5,%ecx,%xmm4
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,225,4 ; pinsrw $0x4,%ecx,%xmm4
- DB 102,15,110,28,51 ; movd (%ebx,%esi,1),%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 242,15,16,227 ; movsd %xmm3,%xmm4
- DB 233,120,254,255,255 ; jmp a7e1 <_sk_scale_u8_sse2_8bit+0x3d>
- DB 15,31,0 ; nopl (%eax)
- DB 74 ; dec %edx
- DB 1,0 ; add %eax,(%eax)
- DB 0,101,1 ; add %ah,0x1(%ebp)
- DB 0,0 ; add %al,(%eax)
- DB 87 ; push %edi
- DB 1,0 ; add %eax,(%eax)
- DB 0,156,1,0,0,146,1 ; add %bl,0x1920000(%ecx,%eax,1)
- DB 0,0 ; add %al,(%eax)
- DB 136,1 ; mov %al,(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 122,1 ; jp a987 <_sk_scale_u8_sse2_8bit+0x1e3>
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_lerp_1_float_sse2_8bit
-_sk_lerp_1_float_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,56 ; sub $0x38,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
- DB 232,0,0,0,0 ; call a99b <_sk_lerp_1_float_sse2_8bit+0x13>
- DB 89 ; pop %ecx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 243,15,16,18 ; movss (%edx),%xmm2
- DB 243,15,89,145,201,95,0,0 ; mulss 0x5fc9(%ecx),%xmm2
- DB 243,15,44,210 ; cvttss2si %xmm2,%edx
- DB 102,15,110,210 ; movd %edx,%xmm2
- DB 102,15,96,210 ; punpcklbw %xmm2,%xmm2
- DB 242,15,112,210,0 ; pshuflw $0x0,%xmm2,%xmm2
- DB 102,15,112,242,80 ; pshufd $0x50,%xmm2,%xmm6
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,96,250 ; punpcklbw %xmm2,%xmm7
- DB 102,15,111,153,245,94,0,0 ; movdqa 0x5ef5(%ecx),%xmm3
- DB 102,15,219,222 ; pand %xmm6,%xmm3
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,104,199 ; punpckhbw %xmm7,%xmm0
- DB 102,15,213,208 ; pmullw %xmm0,%xmm2
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,96,199 ; punpcklbw %xmm7,%xmm0
- DB 102,15,213,232 ; pmullw %xmm0,%xmm5
- DB 102,15,253,232 ; paddw %xmm0,%xmm5
- DB 102,15,104,207 ; punpckhbw %xmm7,%xmm1
- DB 102,15,213,225 ; pmullw %xmm1,%xmm4
- DB 102,15,253,225 ; paddw %xmm1,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,236 ; packuswb %xmm4,%xmm5
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,103,218 ; packuswb %xmm2,%xmm3
- DB 102,15,118,255 ; pcmpeqd %xmm7,%xmm7
- DB 102,15,239,254 ; pxor %xmm6,%xmm7
- DB 102,15,111,117,232 ; movdqa -0x18(%ebp),%xmm6
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,96,209 ; punpcklbw %xmm1,%xmm2
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,15,104,225 ; punpckhbw %xmm1,%xmm4
- DB 102,15,111,69,216 ; movdqa -0x28(%ebp),%xmm0
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,96,241 ; punpcklbw %xmm1,%xmm6
- DB 102,15,104,193 ; punpckhbw %xmm1,%xmm0
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,15,96,193 ; punpcklbw %xmm1,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,104,249 ; punpckhbw %xmm1,%xmm7
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,253,194 ; paddw %xmm2,%xmm0
- DB 102,15,111,215 ; movdqa %xmm7,%xmm2
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,15,253,206 ; paddw %xmm6,%xmm1
- DB 102,15,111,101,200 ; movdqa -0x38(%ebp),%xmm4
- DB 102,15,213,212 ; pmullw %xmm4,%xmm2
- DB 102,15,253,212 ; paddw %xmm4,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,202 ; packuswb %xmm2,%xmm1
- DB 102,15,252,205 ; paddb %xmm5,%xmm1
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 102,15,252,195 ; paddb %xmm3,%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,40,85,232 ; movaps -0x18(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,72 ; add $0x48,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_lerp_u8_sse2_8bit
-_sk_lerp_u8_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 232,0,0,0,0 ; call ab03 <_sk_lerp_u8_sse2_8bit+0x17>
- DB 95 ; pop %edi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,90,4 ; mov 0x4(%edx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,26 ; add (%edx),%ebx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 133,210 ; test %edx,%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 15,133,181,1,0,0 ; jne acd5 <_sk_lerp_u8_sse2_8bit+0x1e9>
- DB 243,15,126,36,51 ; movq (%ebx,%esi,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,219,167,141,93,0,0 ; pand 0x5d8d(%edi),%xmm4
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,105,218 ; punpckhwd %xmm2,%xmm3
- DB 102,15,97,226 ; punpcklwd %xmm2,%xmm4
- DB 102,15,114,244,24 ; pslld $0x18,%xmm4
- DB 102,15,114,243,24 ; pslld $0x18,%xmm3
- DB 242,15,112,219,231 ; pshuflw $0xe7,%xmm3,%xmm3
- DB 243,15,112,219,231 ; pshufhw $0xe7,%xmm3,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,96,219 ; punpcklbw %xmm3,%xmm3
- DB 242,15,112,219,95 ; pshuflw $0x5f,%xmm3,%xmm3
- DB 243,15,112,219,95 ; pshufhw $0x5f,%xmm3,%xmm3
- DB 242,15,112,228,231 ; pshuflw $0xe7,%xmm4,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,252,95 ; pshufhw $0x5f,%xmm4,%xmm7
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,96,236 ; punpcklbw %xmm4,%xmm5
- DB 102,15,104,196 ; punpckhbw %xmm4,%xmm0
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,96,212 ; punpcklbw %xmm4,%xmm2
- DB 102,15,104,204 ; punpckhbw %xmm4,%xmm1
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,96,244 ; punpcklbw %xmm4,%xmm6
- DB 102,15,213,245 ; pmullw %xmm5,%xmm6
- DB 102,15,253,245 ; paddw %xmm5,%xmm6
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,104,229 ; punpckhbw %xmm5,%xmm4
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 102,15,213,234 ; pmullw %xmm2,%xmm5
- DB 102,15,253,234 ; paddw %xmm2,%xmm5
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,104,194 ; punpckhbw %xmm2,%xmm0
- DB 102,15,213,193 ; pmullw %xmm1,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,232 ; packuswb %xmm0,%xmm5
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,244 ; packuswb %xmm4,%xmm6
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,239,216 ; pxor %xmm0,%xmm3
- DB 102,15,239,248 ; pxor %xmm0,%xmm7
- DB 102,15,111,69,216 ; movdqa -0x28(%ebp),%xmm0
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,96,226 ; punpcklbw %xmm2,%xmm4
- DB 102,15,104,194 ; punpckhbw %xmm2,%xmm0
- DB 102,15,127,69,152 ; movdqa %xmm0,-0x68(%ebp)
- DB 102,15,111,69,200 ; movdqa -0x38(%ebp),%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,96,202 ; punpcklbw %xmm2,%xmm1
- DB 102,15,127,77,168 ; movdqa %xmm1,-0x58(%ebp)
- DB 102,15,104,194 ; punpckhbw %xmm2,%xmm0
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,15,96,194 ; punpcklbw %xmm2,%xmm0
- DB 102,15,104,250 ; punpckhbw %xmm2,%xmm7
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,96,202 ; punpcklbw %xmm2,%xmm1
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,104,218 ; punpckhbw %xmm2,%xmm3
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,253,196 ; paddw %xmm4,%xmm0
- DB 102,15,111,85,152 ; movdqa -0x68(%ebp),%xmm2
- DB 102,15,213,250 ; pmullw %xmm2,%xmm7
- DB 102,15,253,250 ; paddw %xmm2,%xmm7
- DB 102,15,111,85,168 ; movdqa -0x58(%ebp),%xmm2
- DB 102,15,213,202 ; pmullw %xmm2,%xmm1
- DB 102,15,253,202 ; paddw %xmm2,%xmm1
- DB 102,15,111,85,184 ; movdqa -0x48(%ebp),%xmm2
- DB 102,15,213,218 ; pmullw %xmm2,%xmm3
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,203 ; packuswb %xmm3,%xmm1
- DB 102,15,252,205 ; paddb %xmm5,%xmm1
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 102,15,252,198 ; paddb %xmm6,%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 82 ; push %edx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,108 ; add $0x6c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 15,135,64,254,255,255 ; ja ab29 <_sk_lerp_u8_sse2_8bit+0x3d>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,89,2,0,0 ; mov 0x259(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 233,37,254,255,255 ; jmp ab29 <_sk_lerp_u8_sse2_8bit+0x3d>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,225,2 ; pinsrw $0x2,%ecx,%xmm4
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 243,15,16,227 ; movss %xmm3,%xmm4
- DB 233,2,254,255,255 ; jmp ab29 <_sk_lerp_u8_sse2_8bit+0x3d>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,225,6 ; pinsrw $0x6,%ecx,%xmm4
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,225,5 ; pinsrw $0x5,%ecx,%xmm4
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,225,4 ; pinsrw $0x4,%ecx,%xmm4
- DB 102,15,110,28,51 ; movd (%ebx,%esi,1),%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 242,15,16,227 ; movsd %xmm3,%xmm4
- DB 233,206,253,255,255 ; jmp ab29 <_sk_lerp_u8_sse2_8bit+0x3d>
- DB 144 ; nop
- DB 244 ; hlt
- DB 1,0 ; add %eax,(%eax)
- DB 0,15 ; add %cl,(%edi)
- DB 2,0 ; add (%eax),%al
- DB 0,1 ; add %al,(%ecx)
- DB 2,0 ; add (%eax),%al
- DB 0,70,2 ; add %al,0x2(%esi)
- DB 0,0 ; add %al,(%eax)
- DB 60,2 ; cmp $0x2,%al
- DB 0,0 ; add %al,(%eax)
- DB 50,2 ; xor (%edx),%al
- DB 0,0 ; add %al,(%eax)
- DB 36,2 ; and $0x2,%al
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_move_src_dst_sse2_8bit
-_sk_move_src_dst_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_move_dst_src_sse2_8bit
-_sk_move_dst_src_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_black_color_sse2_8bit
-_sk_black_color_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call adc9 <_sk_black_color_sse2_8bit+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 15,40,128,103,90,0,0 ; movaps 0x5a67(%eax),%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 82 ; push %edx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_white_color_sse2_8bit
-_sk_white_color_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,118,201 ; pcmpeqd %xmm1,%xmm1
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clear_sse2_8bit
-_sk_clear_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcatop_sse2_8bit
-_sk_srcatop_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,127,117,232 ; movdqa %xmm6,-0x18(%ebp)
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 242,15,112,194,231 ; pshuflw $0xe7,%xmm2,%xmm0
- DB 243,15,112,208,231 ; pshufhw $0xe7,%xmm0,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,96,210 ; punpcklbw %xmm2,%xmm2
- DB 242,15,112,210,95 ; pshuflw $0x5f,%xmm2,%xmm2
- DB 243,15,112,250,95 ; pshufhw $0x5f,%xmm2,%xmm7
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,96,211 ; punpcklbw %xmm3,%xmm2
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,15,96,195 ; punpcklbw %xmm3,%xmm0
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,253,194 ; paddw %xmm2,%xmm0
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,104,251 ; punpckhbw %xmm3,%xmm7
- DB 102,15,213,250 ; pmullw %xmm2,%xmm7
- DB 102,15,253,250 ; paddw %xmm2,%xmm7
- DB 242,15,112,214,231 ; pshuflw $0xe7,%xmm6,%xmm2
- DB 243,15,112,210,231 ; pshufhw $0xe7,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,96,210 ; punpcklbw %xmm2,%xmm2
- DB 242,15,112,210,95 ; pshuflw $0x5f,%xmm2,%xmm2
- DB 243,15,112,210,95 ; pshufhw $0x5f,%xmm2,%xmm2
- DB 102,15,96,203 ; punpcklbw %xmm3,%xmm1
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,96,243 ; punpcklbw %xmm3,%xmm6
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,15,253,241 ; paddw %xmm1,%xmm6
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,104,203 ; punpckhbw %xmm3,%xmm1
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,213,209 ; pmullw %xmm1,%xmm2
- DB 102,15,253,209 ; paddw %xmm1,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,242 ; packuswb %xmm2,%xmm6
- DB 242,15,112,212,231 ; pshuflw $0xe7,%xmm4,%xmm2
- DB 242,15,112,205,231 ; pshuflw $0xe7,%xmm5,%xmm1
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 102,15,127,69,168 ; movdqa %xmm0,-0x58(%ebp)
- DB 243,15,112,194,231 ; pshufhw $0xe7,%xmm2,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,248,95 ; pshufhw $0x5f,%xmm0,%xmm7
- DB 243,15,112,193,231 ; pshufhw $0xe7,%xmm1,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,208,95 ; pshufhw $0x5f,%xmm0,%xmm2
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,239,208 ; pxor %xmm0,%xmm2
- DB 102,15,239,248 ; pxor %xmm0,%xmm7
- DB 102,15,111,101,216 ; movdqa -0x28(%ebp),%xmm4
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,96,217 ; punpcklbw %xmm1,%xmm3
- DB 102,15,127,93,200 ; movdqa %xmm3,-0x38(%ebp)
- DB 102,15,104,225 ; punpckhbw %xmm1,%xmm4
- DB 102,15,111,69,232 ; movdqa -0x18(%ebp),%xmm0
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,96,233 ; punpcklbw %xmm1,%xmm5
- DB 102,15,104,193 ; punpckhbw %xmm1,%xmm0
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,15,96,193 ; punpcklbw %xmm1,%xmm0
- DB 102,15,104,249 ; punpckhbw %xmm1,%xmm7
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,96,203 ; punpcklbw %xmm3,%xmm1
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,111,93,200 ; movdqa -0x38(%ebp),%xmm3
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,253,195 ; paddw %xmm3,%xmm0
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,253,205 ; paddw %xmm5,%xmm1
- DB 102,15,111,93,184 ; movdqa -0x48(%ebp),%xmm3
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,15,253,211 ; paddw %xmm3,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,202 ; packuswb %xmm2,%xmm1
- DB 102,15,252,206 ; paddb %xmm6,%xmm1
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 102,15,252,69,168 ; paddb -0x58(%ebp),%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstatop_sse2_8bit
-_sk_dstatop_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,127,77,232 ; movdqa %xmm1,-0x18(%ebp)
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 242,15,112,208,231 ; pshuflw $0xe7,%xmm0,%xmm2
- DB 243,15,112,194,231 ; pshufhw $0xe7,%xmm2,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,192,95 ; pshufhw $0x5f,%xmm0,%xmm0
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,96,226 ; punpcklbw %xmm2,%xmm4
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,96,250 ; punpcklbw %xmm2,%xmm7
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,127,109,168 ; movdqa %xmm5,-0x58(%ebp)
- DB 102,15,104,226 ; punpckhbw %xmm2,%xmm4
- DB 102,15,104,194 ; punpckhbw %xmm2,%xmm0
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,253,196 ; paddw %xmm4,%xmm0
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 243,15,112,204,231 ; pshufhw $0xe7,%xmm4,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,201,95 ; pshufhw $0x5f,%xmm1,%xmm1
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,96,226 ; punpcklbw %xmm2,%xmm4
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,96,242 ; punpcklbw %xmm2,%xmm6
- DB 102,15,213,244 ; pmullw %xmm4,%xmm6
- DB 102,15,253,244 ; paddw %xmm4,%xmm6
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,127,93,184 ; movdqa %xmm3,-0x48(%ebp)
- DB 102,15,104,226 ; punpckhbw %xmm2,%xmm4
- DB 102,15,104,202 ; punpckhbw %xmm2,%xmm1
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,241 ; packuswb %xmm1,%xmm6
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,248 ; packuswb %xmm0,%xmm7
- DB 102,15,127,125,200 ; movdqa %xmm7,-0x38(%ebp)
- DB 242,15,112,197,231 ; pshuflw $0xe7,%xmm5,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,200,95 ; pshufhw $0x5f,%xmm0,%xmm1
- DB 242,15,112,195,231 ; pshuflw $0xe7,%xmm3,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,192,95 ; pshufhw $0x5f,%xmm0,%xmm0
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,239,196 ; pxor %xmm4,%xmm0
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 102,15,111,85,216 ; movdqa -0x28(%ebp),%xmm2
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,96,227 ; punpcklbw %xmm3,%xmm4
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,85,232 ; movdqa -0x18(%ebp),%xmm2
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,96,235 ; punpcklbw %xmm3,%xmm5
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,127,85,232 ; movdqa %xmm2,-0x18(%ebp)
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,96,211 ; punpcklbw %xmm3,%xmm2
- DB 102,15,104,203 ; punpckhbw %xmm3,%xmm1
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,96,223 ; punpcklbw %xmm7,%xmm3
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,104,199 ; punpckhbw %xmm7,%xmm0
- DB 102,15,213,212 ; pmullw %xmm4,%xmm2
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 102,15,111,85,216 ; movdqa -0x28(%ebp),%xmm2
- DB 102,15,213,202 ; pmullw %xmm2,%xmm1
- DB 102,15,253,202 ; paddw %xmm2,%xmm1
- DB 102,15,213,221 ; pmullw %xmm5,%xmm3
- DB 102,15,253,235 ; paddw %xmm3,%xmm5
- DB 102,15,111,85,232 ; movdqa -0x18(%ebp),%xmm2
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,253,194 ; paddw %xmm2,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,232 ; packuswb %xmm0,%xmm5
- DB 102,15,252,238 ; paddb %xmm6,%xmm5
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,225 ; packuswb %xmm1,%xmm4
- DB 102,15,252,101,200 ; paddb -0x38(%ebp),%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 15,40,85,168 ; movaps -0x58(%ebp),%xmm2
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcin_sse2_8bit
-_sk_srcin_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,56 ; sub $0x38,%esp
- DB 102,15,127,93,200 ; movdqa %xmm3,-0x38(%ebp)
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 242,15,112,195,231 ; pshuflw $0xe7,%xmm3,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,240,95 ; pshufhw $0x5f,%xmm0,%xmm6
- DB 242,15,112,194,231 ; pshuflw $0xe7,%xmm2,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,248,95 ; pshufhw $0x5f,%xmm0,%xmm7
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,96,195 ; punpcklbw %xmm3,%xmm0
- DB 102,15,104,227 ; punpckhbw %xmm3,%xmm4
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,96,235 ; punpcklbw %xmm3,%xmm5
- DB 102,15,104,203 ; punpckhbw %xmm3,%xmm1
- DB 102,15,127,77,232 ; movdqa %xmm1,-0x18(%ebp)
- DB 102,15,111,207 ; movdqa %xmm7,%xmm1
- DB 102,15,96,203 ; punpcklbw %xmm3,%xmm1
- DB 102,15,104,251 ; punpckhbw %xmm3,%xmm7
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,15,96,211 ; punpcklbw %xmm3,%xmm2
- DB 102,15,104,243 ; punpckhbw %xmm3,%xmm6
- DB 102,15,213,200 ; pmullw %xmm0,%xmm1
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,15,213,213 ; pmullw %xmm5,%xmm2
- DB 102,15,253,234 ; paddw %xmm2,%xmm5
- DB 102,15,111,77,232 ; movdqa -0x18(%ebp),%xmm1
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,15,253,241 ; paddw %xmm1,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,238 ; packuswb %xmm6,%xmm5
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,199 ; packuswb %xmm7,%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,72 ; add $0x48,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstin_sse2_8bit
-_sk_dstin_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,56 ; sub $0x38,%esp
- DB 242,15,112,201,231 ; pshuflw $0xe7,%xmm1,%xmm1
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,225,95 ; pshufhw $0x5f,%xmm1,%xmm4
- DB 242,15,112,192,231 ; pshuflw $0xe7,%xmm0,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,232,95 ; pshufhw $0x5f,%xmm0,%xmm5
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,15,127,85,200 ; movdqa %xmm2,-0x38(%ebp)
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,96,254 ; punpcklbw %xmm6,%xmm7
- DB 102,15,104,214 ; punpckhbw %xmm6,%xmm2
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 102,15,96,222 ; punpcklbw %xmm6,%xmm3
- DB 102,15,104,198 ; punpckhbw %xmm6,%xmm0
- DB 102,15,127,69,232 ; movdqa %xmm0,-0x18(%ebp)
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,96,198 ; punpcklbw %xmm6,%xmm0
- DB 102,15,104,238 ; punpckhbw %xmm6,%xmm5
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,96,206 ; punpcklbw %xmm6,%xmm1
- DB 102,15,104,230 ; punpckhbw %xmm6,%xmm4
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,213,234 ; pmullw %xmm2,%xmm5
- DB 102,15,253,234 ; paddw %xmm2,%xmm5
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,111,85,232 ; movdqa -0x18(%ebp),%xmm2
- DB 102,15,213,226 ; pmullw %xmm2,%xmm4
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,204 ; packuswb %xmm4,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,197 ; packuswb %xmm5,%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,72 ; add $0x48,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcout_sse2_8bit
-_sk_srcout_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,56 ; sub $0x38,%esp
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,127,109,216 ; movdqa %xmm5,-0x28(%ebp)
- DB 102,15,127,85,200 ; movdqa %xmm2,-0x38(%ebp)
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 242,15,112,226,231 ; pshuflw $0xe7,%xmm2,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,244,95 ; pshufhw $0x5f,%xmm4,%xmm6
- DB 242,15,112,229,231 ; pshuflw $0xe7,%xmm5,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,252,95 ; pshufhw $0x5f,%xmm4,%xmm7
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,239,252 ; pxor %xmm4,%xmm7
- DB 102,15,239,244 ; pxor %xmm4,%xmm6
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,96,226 ; punpcklbw %xmm2,%xmm4
- DB 102,15,104,218 ; punpckhbw %xmm2,%xmm3
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,96,234 ; punpcklbw %xmm2,%xmm5
- DB 102,15,104,202 ; punpckhbw %xmm2,%xmm1
- DB 102,15,127,77,232 ; movdqa %xmm1,-0x18(%ebp)
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,96,194 ; punpcklbw %xmm2,%xmm0
- DB 102,15,104,242 ; punpckhbw %xmm2,%xmm6
- DB 102,15,111,207 ; movdqa %xmm7,%xmm1
- DB 102,15,96,202 ; punpcklbw %xmm2,%xmm1
- DB 102,15,104,250 ; punpckhbw %xmm2,%xmm7
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,213,243 ; pmullw %xmm3,%xmm6
- DB 102,15,253,243 ; paddw %xmm3,%xmm6
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,253,233 ; paddw %xmm1,%xmm5
- DB 102,15,111,69,232 ; movdqa -0x18(%ebp),%xmm0
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,239 ; packuswb %xmm7,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,230 ; packuswb %xmm6,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,72 ; add $0x48,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstout_sse2_8bit
-_sk_dstout_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,56 ; sub $0x38,%esp
- DB 242,15,112,192,231 ; pshuflw $0xe7,%xmm0,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,224,95 ; pshufhw $0x5f,%xmm0,%xmm4
- DB 242,15,112,193,231 ; pshuflw $0xe7,%xmm1,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,232,95 ; pshufhw $0x5f,%xmm0,%xmm5
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,239,232 ; pxor %xmm0,%xmm5
- DB 102,15,239,224 ; pxor %xmm0,%xmm4
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,15,127,85,200 ; movdqa %xmm2,-0x38(%ebp)
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,96,254 ; punpcklbw %xmm6,%xmm7
- DB 102,15,104,214 ; punpckhbw %xmm6,%xmm2
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 102,15,96,222 ; punpcklbw %xmm6,%xmm3
- DB 102,15,104,198 ; punpckhbw %xmm6,%xmm0
- DB 102,15,127,69,232 ; movdqa %xmm0,-0x18(%ebp)
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,96,198 ; punpcklbw %xmm6,%xmm0
- DB 102,15,104,230 ; punpckhbw %xmm6,%xmm4
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,96,206 ; punpcklbw %xmm6,%xmm1
- DB 102,15,104,238 ; punpckhbw %xmm6,%xmm5
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,213,226 ; pmullw %xmm2,%xmm4
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,111,85,232 ; movdqa -0x18(%ebp),%xmm2
- DB 102,15,213,234 ; pmullw %xmm2,%xmm5
- DB 102,15,253,234 ; paddw %xmm2,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,205 ; packuswb %xmm5,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,196 ; packuswb %xmm4,%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,72 ; add $0x48,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcover_sse2_8bit
-_sk_srcover_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,127,117,216 ; movdqa %xmm6,-0x28(%ebp)
- DB 102,15,127,85,200 ; movdqa %xmm2,-0x38(%ebp)
- DB 102,15,127,77,168 ; movdqa %xmm1,-0x58(%ebp)
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm4
- DB 242,15,112,232,231 ; pshuflw $0xe7,%xmm0,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,237,95 ; pshufhw $0x5f,%xmm5,%xmm5
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,104,200 ; punpckhbw %xmm0,%xmm1
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,15,96,208 ; punpcklbw %xmm0,%xmm2
- DB 102,15,104,240 ; punpckhbw %xmm0,%xmm6
- DB 102,15,127,117,232 ; movdqa %xmm6,-0x18(%ebp)
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,96,240 ; punpcklbw %xmm0,%xmm6
- DB 102,15,104,232 ; punpckhbw %xmm0,%xmm5
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,96,248 ; punpcklbw %xmm0,%xmm7
- DB 102,15,104,224 ; punpckhbw %xmm0,%xmm4
- DB 102,15,213,243 ; pmullw %xmm3,%xmm6
- DB 102,15,253,243 ; paddw %xmm3,%xmm6
- DB 102,15,213,233 ; pmullw %xmm1,%xmm5
- DB 102,15,253,233 ; paddw %xmm1,%xmm5
- DB 102,15,213,250 ; pmullw %xmm2,%xmm7
- DB 102,15,253,250 ; paddw %xmm2,%xmm7
- DB 102,15,111,69,232 ; movdqa -0x18(%ebp),%xmm0
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,245 ; packuswb %xmm5,%xmm6
- DB 102,15,111,93,216 ; movdqa -0x28(%ebp),%xmm3
- DB 102,15,111,69,168 ; movdqa -0x58(%ebp),%xmm0
- DB 102,15,252,195 ; paddb %xmm3,%xmm0
- DB 102,15,248,199 ; psubb %xmm7,%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,85,200 ; movdqa -0x38(%ebp),%xmm2
- DB 102,15,111,69,184 ; movdqa -0x48(%ebp),%xmm0
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,248,198 ; psubb %xmm6,%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstover_sse2_8bit
-_sk_dstover_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 102,15,127,93,168 ; movdqa %xmm3,-0x58(%ebp)
- DB 102,15,127,85,184 ; movdqa %xmm2,-0x48(%ebp)
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,127,117,216 ; movdqa %xmm6,-0x28(%ebp)
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 242,15,112,227,231 ; pshuflw $0xe7,%xmm3,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm4
- DB 242,15,112,234,231 ; pshuflw $0xe7,%xmm2,%xmm5
- DB 243,15,112,237,231 ; pshufhw $0xe7,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,96,237 ; punpcklbw %xmm5,%xmm5
- DB 242,15,112,237,95 ; pshuflw $0x5f,%xmm5,%xmm5
- DB 243,15,112,237,95 ; pshufhw $0x5f,%xmm5,%xmm5
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,127,85,200 ; movdqa %xmm2,-0x38(%ebp)
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 102,15,104,208 ; punpckhbw %xmm0,%xmm2
- DB 102,15,111,222 ; movdqa %xmm6,%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 102,15,104,240 ; punpckhbw %xmm0,%xmm6
- DB 102,15,127,117,232 ; movdqa %xmm6,-0x18(%ebp)
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,96,240 ; punpcklbw %xmm0,%xmm6
- DB 102,15,104,232 ; punpckhbw %xmm0,%xmm5
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,96,248 ; punpcklbw %xmm0,%xmm7
- DB 102,15,104,224 ; punpckhbw %xmm0,%xmm4
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,15,253,241 ; paddw %xmm1,%xmm6
- DB 102,15,213,234 ; pmullw %xmm2,%xmm5
- DB 102,15,253,234 ; paddw %xmm2,%xmm5
- DB 102,15,213,251 ; pmullw %xmm3,%xmm7
- DB 102,15,253,251 ; paddw %xmm3,%xmm7
- DB 102,15,111,69,232 ; movdqa -0x18(%ebp),%xmm0
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,245 ; packuswb %xmm5,%xmm6
- DB 102,15,111,69,216 ; movdqa -0x28(%ebp),%xmm0
- DB 102,15,111,93,168 ; movdqa -0x58(%ebp),%xmm3
- DB 102,15,252,195 ; paddb %xmm3,%xmm0
- DB 102,15,248,199 ; psubb %xmm7,%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,85,184 ; movdqa -0x48(%ebp),%xmm2
- DB 102,15,111,69,200 ; movdqa -0x38(%ebp),%xmm0
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,248,198 ; psubb %xmm6,%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_modulate_sse2_8bit
-_sk_modulate_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,56 ; sub $0x38,%esp
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,111,215 ; movdqa %xmm7,%xmm2
- DB 102,15,96,213 ; punpcklbw %xmm5,%xmm2
- DB 102,15,104,253 ; punpckhbw %xmm5,%xmm7
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,96,205 ; punpcklbw %xmm5,%xmm1
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,96,229 ; punpcklbw %xmm5,%xmm4
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,104,245 ; punpckhbw %xmm5,%xmm6
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,127,109,232 ; movdqa %xmm5,-0x18(%ebp)
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,213,226 ; pmullw %xmm2,%xmm4
- DB 102,15,253,212 ; paddw %xmm4,%xmm2
- DB 102,15,213,247 ; pmullw %xmm7,%xmm6
- DB 102,15,253,247 ; paddw %xmm7,%xmm6
- DB 102,15,213,217 ; pmullw %xmm1,%xmm3
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,111,93,216 ; movdqa -0x28(%ebp),%xmm3
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,253,195 ; paddw %xmm3,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,200 ; packuswb %xmm0,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,103,214 ; packuswb %xmm6,%xmm2
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,72 ; add $0x48,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_multiply_sse2_8bit
-_sk_multiply_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 129,236,152,0,0,0 ; sub $0x98,%esp
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,127,101,232 ; movdqa %xmm4,-0x18(%ebp)
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 242,15,112,228,231 ; pshuflw $0xe7,%xmm4,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,196,95 ; pshufhw $0x5f,%xmm4,%xmm0
- DB 102,15,118,210 ; pcmpeqd %xmm2,%xmm2
- DB 102,15,239,194 ; pxor %xmm2,%xmm0
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,96,245 ; punpcklbw %xmm5,%xmm6
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,104,245 ; punpckhbw %xmm5,%xmm6
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,96,213 ; punpcklbw %xmm5,%xmm2
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,127,181,120,255,255,255 ; movdqa %xmm6,-0x88(%ebp)
- DB 102,15,127,189,104,255,255,255 ; movdqa %xmm7,-0x98(%ebp)
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,253,198 ; paddw %xmm6,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,103,208 ; packuswb %xmm0,%xmm2
- DB 102,15,127,85,168 ; movdqa %xmm2,-0x58(%ebp)
- DB 102,15,111,85,216 ; movdqa -0x28(%ebp),%xmm2
- DB 242,15,112,226,231 ; pshuflw $0xe7,%xmm2,%xmm4
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,228,95 ; pshufhw $0x5f,%xmm4,%xmm4
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,239,224 ; pxor %xmm0,%xmm4
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,96,245 ; punpcklbw %xmm5,%xmm6
- DB 102,15,127,117,152 ; movdqa %xmm6,-0x68(%ebp)
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,127,69,136 ; movdqa %xmm0,-0x78(%ebp)
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,96,253 ; punpcklbw %xmm5,%xmm7
- DB 102,15,104,229 ; punpckhbw %xmm5,%xmm4
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,213,254 ; pmullw %xmm6,%xmm7
- DB 102,15,253,254 ; paddw %xmm6,%xmm7
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,127,125,200 ; movdqa %xmm7,-0x38(%ebp)
- DB 242,15,112,193,231 ; pshuflw $0xe7,%xmm1,%xmm0
- DB 242,15,112,203,231 ; pshuflw $0xe7,%xmm3,%xmm1
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,192,95 ; pshufhw $0x5f,%xmm0,%xmm0
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,201,95 ; pshufhw $0x5f,%xmm1,%xmm1
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,239,203 ; pxor %xmm3,%xmm1
- DB 102,15,239,195 ; pxor %xmm3,%xmm0
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,96,245 ; punpcklbw %xmm5,%xmm6
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,127,85,184 ; movdqa %xmm2,-0x48(%ebp)
- DB 102,15,111,109,232 ; movdqa -0x18(%ebp),%xmm5
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,96,227 ; punpcklbw %xmm3,%xmm4
- DB 102,15,104,235 ; punpckhbw %xmm3,%xmm5
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,96,218 ; punpcklbw %xmm2,%xmm3
- DB 102,15,104,194 ; punpckhbw %xmm2,%xmm0
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,96,215 ; punpcklbw %xmm7,%xmm2
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,104,207 ; punpckhbw %xmm7,%xmm1
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,213,212 ; pmullw %xmm4,%xmm2
- DB 102,15,253,212 ; paddw %xmm4,%xmm2
- DB 102,15,253,205 ; paddw %xmm5,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,103,209 ; packuswb %xmm1,%xmm2
- DB 102,15,252,85,168 ; paddb -0x58(%ebp),%xmm2
- DB 102,15,111,77,184 ; movdqa -0x48(%ebp),%xmm1
- DB 102,15,213,193 ; pmullw %xmm1,%xmm0
- DB 102,15,213,222 ; pmullw %xmm6,%xmm3
- DB 102,15,253,222 ; paddw %xmm6,%xmm3
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,103,216 ; packuswb %xmm0,%xmm3
- DB 102,15,252,93,200 ; paddb -0x38(%ebp),%xmm3
- DB 102,15,111,69,152 ; movdqa -0x68(%ebp),%xmm0
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,15,253,240 ; paddw %xmm0,%xmm6
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,111,77,136 ; movdqa -0x78(%ebp),%xmm1
- DB 102,15,213,193 ; pmullw %xmm1,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,133,104,255,255,255 ; movdqa -0x98(%ebp),%xmm0
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,111,133,120,255,255,255 ; movdqa -0x88(%ebp),%xmm0
- DB 102,15,213,232 ; pmullw %xmm0,%xmm5
- DB 102,15,253,232 ; paddw %xmm0,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,229 ; packuswb %xmm5,%xmm4
- DB 102,15,252,212 ; paddb %xmm4,%xmm2
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,241 ; packuswb %xmm1,%xmm6
- DB 102,15,252,222 ; paddb %xmm6,%xmm3
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 129,196,168,0,0,0 ; add $0xa8,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_screen_sse2_8bit
-_sk_screen_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,127,77,168 ; movdqa %xmm1,-0x58(%ebp)
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 102,15,118,255 ; pcmpeqd %xmm7,%xmm7
- DB 102,15,239,207 ; pxor %xmm7,%xmm1
- DB 102,15,239,248 ; pxor %xmm0,%xmm7
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 102,15,104,248 ; punpckhbw %xmm0,%xmm7
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,104,200 ; punpckhbw %xmm0,%xmm1
- DB 102,15,127,77,216 ; movdqa %xmm1,-0x28(%ebp)
- DB 102,15,127,85,200 ; movdqa %xmm2,-0x38(%ebp)
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 102,15,104,208 ; punpckhbw %xmm0,%xmm2
- DB 102,15,127,117,232 ; movdqa %xmm6,-0x18(%ebp)
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,15,104,198 ; punpckhbw %xmm6,%xmm0
- DB 102,15,213,221 ; pmullw %xmm5,%xmm3
- DB 102,15,253,235 ; paddw %xmm3,%xmm5
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,15,253,225 ; paddw %xmm1,%xmm4
- DB 102,15,111,77,216 ; movdqa -0x28(%ebp),%xmm1
- DB 102,15,213,193 ; pmullw %xmm1,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,224 ; packuswb %xmm0,%xmm4
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,234 ; packuswb %xmm2,%xmm5
- DB 102,15,111,69,184 ; movdqa -0x48(%ebp),%xmm0
- DB 102,15,252,197 ; paddb %xmm5,%xmm0
- DB 102,15,252,101,168 ; paddb -0x58(%ebp),%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xor__sse2_8bit
-_sk_xor__sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,127,117,232 ; movdqa %xmm6,-0x18(%ebp)
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 242,15,112,194,231 ; pshuflw $0xe7,%xmm2,%xmm0
- DB 243,15,112,208,231 ; pshufhw $0xe7,%xmm0,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,96,210 ; punpcklbw %xmm2,%xmm2
- DB 242,15,112,210,95 ; pshuflw $0x5f,%xmm2,%xmm2
- DB 243,15,112,226,95 ; pshufhw $0x5f,%xmm2,%xmm4
- DB 102,15,118,201 ; pcmpeqd %xmm1,%xmm1
- DB 102,15,239,225 ; pxor %xmm1,%xmm4
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,111,213 ; movdqa %xmm5,%xmm2
- DB 102,15,96,211 ; punpcklbw %xmm3,%xmm2
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,96,195 ; punpcklbw %xmm3,%xmm0
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,253,194 ; paddw %xmm2,%xmm0
- DB 102,15,111,213 ; movdqa %xmm5,%xmm2
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,104,227 ; punpckhbw %xmm3,%xmm4
- DB 102,15,213,226 ; pmullw %xmm2,%xmm4
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 242,15,112,214,231 ; pshuflw $0xe7,%xmm6,%xmm2
- DB 243,15,112,210,231 ; pshufhw $0xe7,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,96,210 ; punpcklbw %xmm2,%xmm2
- DB 242,15,112,210,95 ; pshuflw $0x5f,%xmm2,%xmm2
- DB 243,15,112,210,95 ; pshufhw $0x5f,%xmm2,%xmm2
- DB 102,15,239,209 ; pxor %xmm1,%xmm2
- DB 102,15,111,207 ; movdqa %xmm7,%xmm1
- DB 102,15,96,203 ; punpcklbw %xmm3,%xmm1
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,96,243 ; punpcklbw %xmm3,%xmm6
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,15,253,241 ; paddw %xmm1,%xmm6
- DB 102,15,111,207 ; movdqa %xmm7,%xmm1
- DB 102,15,104,203 ; punpckhbw %xmm3,%xmm1
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,213,209 ; pmullw %xmm1,%xmm2
- DB 102,15,253,209 ; paddw %xmm1,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,242 ; packuswb %xmm2,%xmm6
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,196 ; packuswb %xmm4,%xmm0
- DB 102,15,127,69,168 ; movdqa %xmm0,-0x58(%ebp)
- DB 242,15,112,197,231 ; pshuflw $0xe7,%xmm5,%xmm0
- DB 242,15,112,207,231 ; pshuflw $0xe7,%xmm7,%xmm1
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,224,95 ; pshufhw $0x5f,%xmm0,%xmm4
- DB 243,15,112,193,231 ; pshufhw $0xe7,%xmm1,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,208,95 ; pshufhw $0x5f,%xmm0,%xmm2
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,239,208 ; pxor %xmm0,%xmm2
- DB 102,15,239,224 ; pxor %xmm0,%xmm4
- DB 102,15,111,69,216 ; movdqa -0x28(%ebp),%xmm0
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,96,249 ; punpcklbw %xmm1,%xmm7
- DB 102,15,104,193 ; punpckhbw %xmm1,%xmm0
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,111,69,232 ; movdqa -0x18(%ebp),%xmm0
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,96,233 ; punpcklbw %xmm1,%xmm5
- DB 102,15,104,193 ; punpckhbw %xmm1,%xmm0
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,96,193 ; punpcklbw %xmm1,%xmm0
- DB 102,15,104,225 ; punpckhbw %xmm1,%xmm4
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,96,203 ; punpcklbw %xmm3,%xmm1
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,111,93,200 ; movdqa -0x38(%ebp),%xmm3
- DB 102,15,213,227 ; pmullw %xmm3,%xmm4
- DB 102,15,253,227 ; paddw %xmm3,%xmm4
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,253,205 ; paddw %xmm5,%xmm1
- DB 102,15,111,93,184 ; movdqa -0x48(%ebp),%xmm3
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,15,253,211 ; paddw %xmm3,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,103,202 ; packuswb %xmm2,%xmm1
- DB 102,15,252,206 ; paddb %xmm6,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,196 ; packuswb %xmm4,%xmm0
- DB 102,15,252,69,168 ; paddb -0x58(%ebp),%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_plus__sse2_8bit
-_sk_plus__sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 102,15,220,194 ; paddusb %xmm2,%xmm0
- DB 102,15,220,203 ; paddusb %xmm3,%xmm1
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_darken_sse2_8bit
-_sk_darken_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,120 ; sub $0x78,%esp
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,127,109,232 ; movdqa %xmm5,-0x18(%ebp)
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,127,93,136 ; movdqa %xmm3,-0x78(%ebp)
- DB 242,15,112,202,231 ; pshuflw $0xe7,%xmm2,%xmm1
- DB 243,15,112,209,231 ; pshufhw $0xe7,%xmm1,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,96,210 ; punpcklbw %xmm2,%xmm2
- DB 242,15,112,210,95 ; pshuflw $0x5f,%xmm2,%xmm2
- DB 243,15,112,250,95 ; pshufhw $0x5f,%xmm2,%xmm7
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,96,209 ; punpcklbw %xmm1,%xmm2
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,96,241 ; punpcklbw %xmm1,%xmm6
- DB 102,15,213,242 ; pmullw %xmm2,%xmm6
- DB 102,15,253,242 ; paddw %xmm2,%xmm6
- DB 102,15,127,101,152 ; movdqa %xmm4,-0x68(%ebp)
- DB 102,15,104,193 ; punpckhbw %xmm1,%xmm0
- DB 102,15,104,249 ; punpckhbw %xmm1,%xmm7
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 242,15,112,197,231 ; pshuflw $0xe7,%xmm5,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,192,95 ; pshufhw $0x5f,%xmm0,%xmm0
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,96,209 ; punpcklbw %xmm1,%xmm2
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,96,233 ; punpcklbw %xmm1,%xmm5
- DB 102,15,213,234 ; pmullw %xmm2,%xmm5
- DB 102,15,253,234 ; paddw %xmm2,%xmm5
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,104,209 ; punpckhbw %xmm1,%xmm2
- DB 102,15,104,193 ; punpckhbw %xmm1,%xmm0
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,253,194 ; paddw %xmm2,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,232 ; packuswb %xmm0,%xmm5
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,247 ; packuswb %xmm7,%xmm6
- DB 242,15,112,195,231 ; pshuflw $0xe7,%xmm3,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,208,95 ; pshufhw $0x5f,%xmm0,%xmm2
- DB 242,15,112,196,231 ; pshuflw $0xe7,%xmm4,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,200,95 ; pshufhw $0x5f,%xmm0,%xmm1
- DB 102,15,111,101,216 ; movdqa -0x28(%ebp),%xmm4
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,96,223 ; punpcklbw %xmm7,%xmm3
- DB 102,15,127,93,200 ; movdqa %xmm3,-0x38(%ebp)
- DB 102,15,104,231 ; punpckhbw %xmm7,%xmm4
- DB 102,15,111,93,232 ; movdqa -0x18(%ebp),%xmm3
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,96,199 ; punpcklbw %xmm7,%xmm0
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 102,15,104,223 ; punpckhbw %xmm7,%xmm3
- DB 102,15,127,93,168 ; movdqa %xmm3,-0x58(%ebp)
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,96,251 ; punpcklbw %xmm3,%xmm7
- DB 102,15,104,203 ; punpckhbw %xmm3,%xmm1
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,96,195 ; punpcklbw %xmm3,%xmm0
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,111,93,200 ; movdqa -0x38(%ebp),%xmm3
- DB 102,15,213,251 ; pmullw %xmm3,%xmm7
- DB 102,15,253,251 ; paddw %xmm3,%xmm7
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,15,111,93,184 ; movdqa -0x48(%ebp),%xmm3
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,253,195 ; paddw %xmm3,%xmm0
- DB 102,15,111,93,168 ; movdqa -0x58(%ebp),%xmm3
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,15,253,211 ; paddw %xmm3,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,194 ; packuswb %xmm2,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,249 ; packuswb %xmm1,%xmm7
- DB 102,15,222,232 ; pmaxub %xmm0,%xmm5
- DB 102,15,111,77,136 ; movdqa -0x78(%ebp),%xmm1
- DB 102,15,252,77,232 ; paddb -0x18(%ebp),%xmm1
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,248,229 ; psubb %xmm5,%xmm4
- DB 102,15,222,247 ; pmaxub %xmm7,%xmm6
- DB 102,15,111,93,152 ; movdqa -0x68(%ebp),%xmm3
- DB 102,15,111,85,216 ; movdqa -0x28(%ebp),%xmm2
- DB 102,15,252,218 ; paddb %xmm2,%xmm3
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,248,238 ; psubb %xmm6,%xmm5
- DB 232,0,0,0,0 ; call bfcf <_sk_darken_sse2_8bit+0x1df>
- DB 88 ; pop %eax
- DB 102,15,248,200 ; psubb %xmm0,%xmm1
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,248,223 ; psubb %xmm7,%xmm3
- DB 102,15,111,128,225,72,0,0 ; movdqa 0x48e1(%eax),%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,223,203 ; pandn %xmm3,%xmm1
- DB 102,15,219,232 ; pand %xmm0,%xmm5
- DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,219,224 ; pand %xmm0,%xmm4
- DB 102,15,223,198 ; pandn %xmm6,%xmm0
- DB 102,15,235,224 ; por %xmm0,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 129,196,136,0,0,0 ; add $0x88,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_lighten_sse2_8bit
-_sk_lighten_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,120 ; sub $0x78,%esp
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,127,109,232 ; movdqa %xmm5,-0x18(%ebp)
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,127,93,136 ; movdqa %xmm3,-0x78(%ebp)
- DB 242,15,112,202,231 ; pshuflw $0xe7,%xmm2,%xmm1
- DB 243,15,112,209,231 ; pshufhw $0xe7,%xmm1,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,96,210 ; punpcklbw %xmm2,%xmm2
- DB 242,15,112,210,95 ; pshuflw $0x5f,%xmm2,%xmm2
- DB 243,15,112,250,95 ; pshufhw $0x5f,%xmm2,%xmm7
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,96,209 ; punpcklbw %xmm1,%xmm2
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,96,241 ; punpcklbw %xmm1,%xmm6
- DB 102,15,213,242 ; pmullw %xmm2,%xmm6
- DB 102,15,253,242 ; paddw %xmm2,%xmm6
- DB 102,15,127,101,152 ; movdqa %xmm4,-0x68(%ebp)
- DB 102,15,104,193 ; punpckhbw %xmm1,%xmm0
- DB 102,15,104,249 ; punpckhbw %xmm1,%xmm7
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 242,15,112,197,231 ; pshuflw $0xe7,%xmm5,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,192,95 ; pshufhw $0x5f,%xmm0,%xmm0
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,96,209 ; punpcklbw %xmm1,%xmm2
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,96,233 ; punpcklbw %xmm1,%xmm5
- DB 102,15,213,234 ; pmullw %xmm2,%xmm5
- DB 102,15,253,234 ; paddw %xmm2,%xmm5
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,104,209 ; punpckhbw %xmm1,%xmm2
- DB 102,15,104,193 ; punpckhbw %xmm1,%xmm0
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,253,194 ; paddw %xmm2,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,232 ; packuswb %xmm0,%xmm5
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,247 ; packuswb %xmm7,%xmm6
- DB 242,15,112,195,231 ; pshuflw $0xe7,%xmm3,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,208,95 ; pshufhw $0x5f,%xmm0,%xmm2
- DB 242,15,112,196,231 ; pshuflw $0xe7,%xmm4,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,200,95 ; pshufhw $0x5f,%xmm0,%xmm1
- DB 102,15,111,101,216 ; movdqa -0x28(%ebp),%xmm4
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,96,223 ; punpcklbw %xmm7,%xmm3
- DB 102,15,127,93,200 ; movdqa %xmm3,-0x38(%ebp)
- DB 102,15,104,231 ; punpckhbw %xmm7,%xmm4
- DB 102,15,111,93,232 ; movdqa -0x18(%ebp),%xmm3
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,96,199 ; punpcklbw %xmm7,%xmm0
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 102,15,104,223 ; punpckhbw %xmm7,%xmm3
- DB 102,15,127,93,168 ; movdqa %xmm3,-0x58(%ebp)
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,96,251 ; punpcklbw %xmm3,%xmm7
- DB 102,15,104,203 ; punpckhbw %xmm3,%xmm1
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,96,195 ; punpcklbw %xmm3,%xmm0
- DB 102,15,104,211 ; punpckhbw %xmm3,%xmm2
- DB 102,15,111,93,200 ; movdqa -0x38(%ebp),%xmm3
- DB 102,15,213,251 ; pmullw %xmm3,%xmm7
- DB 102,15,253,251 ; paddw %xmm3,%xmm7
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,15,111,93,184 ; movdqa -0x48(%ebp),%xmm3
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,253,195 ; paddw %xmm3,%xmm0
- DB 102,15,111,93,168 ; movdqa -0x58(%ebp),%xmm3
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,15,253,211 ; paddw %xmm3,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,194 ; packuswb %xmm2,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,249 ; packuswb %xmm1,%xmm7
- DB 102,15,218,232 ; pminub %xmm0,%xmm5
- DB 102,15,111,77,136 ; movdqa -0x78(%ebp),%xmm1
- DB 102,15,252,77,232 ; paddb -0x18(%ebp),%xmm1
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,248,229 ; psubb %xmm5,%xmm4
- DB 102,15,218,247 ; pminub %xmm7,%xmm6
- DB 102,15,111,93,152 ; movdqa -0x68(%ebp),%xmm3
- DB 102,15,111,85,216 ; movdqa -0x28(%ebp),%xmm2
- DB 102,15,252,218 ; paddb %xmm2,%xmm3
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,248,238 ; psubb %xmm6,%xmm5
- DB 232,0,0,0,0 ; call c205 <_sk_lighten_sse2_8bit+0x1df>
- DB 88 ; pop %eax
- DB 102,15,248,200 ; psubb %xmm0,%xmm1
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,248,223 ; psubb %xmm7,%xmm3
- DB 102,15,111,128,171,70,0,0 ; movdqa 0x46ab(%eax),%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,223,203 ; pandn %xmm3,%xmm1
- DB 102,15,219,232 ; pand %xmm0,%xmm5
- DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,219,224 ; pand %xmm0,%xmm4
- DB 102,15,223,198 ; pandn %xmm6,%xmm0
- DB 102,15,235,224 ; por %xmm0,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 129,196,136,0,0,0 ; add $0x88,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_exclusion_sse2_8bit
-_sk_exclusion_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,96,199 ; punpcklbw %xmm7,%xmm0
- DB 102,15,127,69,232 ; movdqa %xmm0,-0x18(%ebp)
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,104,199 ; punpckhbw %xmm7,%xmm0
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,96,199 ; punpcklbw %xmm7,%xmm0
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,104,199 ; punpckhbw %xmm7,%xmm0
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,127,69,168 ; movdqa %xmm0,-0x58(%ebp)
- DB 102,15,96,231 ; punpcklbw %xmm7,%xmm4
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,104,247 ; punpckhbw %xmm7,%xmm6
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,96,239 ; punpcklbw %xmm7,%xmm5
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,104,199 ; punpckhbw %xmm7,%xmm0
- DB 102,15,111,125,232 ; movdqa -0x18(%ebp),%xmm7
- DB 102,15,213,231 ; pmullw %xmm7,%xmm4
- DB 102,15,253,231 ; paddw %xmm7,%xmm4
- DB 102,15,111,125,200 ; movdqa -0x38(%ebp),%xmm7
- DB 102,15,213,247 ; pmullw %xmm7,%xmm6
- DB 102,15,253,247 ; paddw %xmm7,%xmm6
- DB 102,15,111,125,216 ; movdqa -0x28(%ebp),%xmm7
- DB 102,15,213,239 ; pmullw %xmm7,%xmm5
- DB 102,15,253,239 ; paddw %xmm7,%xmm5
- DB 102,15,111,125,184 ; movdqa -0x48(%ebp),%xmm7
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,103,232 ; packuswb %xmm0,%xmm5
- DB 232,0,0,0,0 ; call c312 <_sk_exclusion_sse2_8bit+0xb6>
- DB 88 ; pop %eax
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,103,230 ; packuswb %xmm6,%xmm4
- DB 102,15,111,128,158,69,0,0 ; movdqa 0x459e(%eax),%xmm0
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,252,222 ; paddb %xmm6,%xmm3
- DB 102,15,248,221 ; psubb %xmm5,%xmm3
- DB 102,15,219,232 ; pand %xmm0,%xmm5
- DB 102,15,248,221 ; psubb %xmm5,%xmm3
- DB 102,15,219,196 ; pand %xmm4,%xmm0
- DB 102,15,111,109,168 ; movdqa -0x58(%ebp),%xmm5
- DB 102,15,252,213 ; paddb %xmm5,%xmm2
- DB 102,15,248,212 ; psubb %xmm4,%xmm2
- DB 102,15,248,208 ; psubb %xmm0,%xmm2
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,111,213 ; movdqa %xmm5,%xmm2
- DB 102,15,111,222 ; movdqa %xmm6,%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_difference_sse2_8bit
-_sk_difference_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,120 ; sub $0x78,%esp
- DB 102,15,127,93,232 ; movdqa %xmm3,-0x18(%ebp)
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 242,15,112,202,231 ; pshuflw $0xe7,%xmm2,%xmm1
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,225,95 ; pshufhw $0x5f,%xmm1,%xmm4
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,96,205 ; punpcklbw %xmm5,%xmm1
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,96,253 ; punpcklbw %xmm5,%xmm7
- DB 102,15,213,249 ; pmullw %xmm1,%xmm7
- DB 102,15,253,249 ; paddw %xmm1,%xmm7
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,104,205 ; punpckhbw %xmm5,%xmm1
- DB 102,15,104,229 ; punpckhbw %xmm5,%xmm4
- DB 102,15,213,225 ; pmullw %xmm1,%xmm4
- DB 102,15,253,225 ; paddw %xmm1,%xmm4
- DB 242,15,112,203,231 ; pshuflw $0xe7,%xmm3,%xmm1
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,201,95 ; pshufhw $0x5f,%xmm1,%xmm1
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,96,213 ; punpcklbw %xmm5,%xmm2
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,96,245 ; punpcklbw %xmm5,%xmm6
- DB 102,15,213,242 ; pmullw %xmm2,%xmm6
- DB 102,15,253,242 ; paddw %xmm2,%xmm6
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,127,69,136 ; movdqa %xmm0,-0x78(%ebp)
- DB 102,15,104,213 ; punpckhbw %xmm5,%xmm2
- DB 102,15,104,205 ; punpckhbw %xmm5,%xmm1
- DB 102,15,213,202 ; pmullw %xmm2,%xmm1
- DB 102,15,253,202 ; paddw %xmm2,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,103,241 ; packuswb %xmm1,%xmm6
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,252 ; packuswb %xmm4,%xmm7
- DB 102,15,127,125,152 ; movdqa %xmm7,-0x68(%ebp)
- DB 242,15,112,192,231 ; pshuflw $0xe7,%xmm0,%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,200,95 ; pshufhw $0x5f,%xmm0,%xmm1
- DB 242,15,112,69,200,231 ; pshuflw $0xe7,-0x38(%ebp),%xmm0
- DB 243,15,112,192,231 ; pshufhw $0xe7,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,112,192,95 ; pshuflw $0x5f,%xmm0,%xmm0
- DB 243,15,112,208,95 ; pshufhw $0x5f,%xmm0,%xmm2
- DB 102,15,111,101,216 ; movdqa -0x28(%ebp),%xmm4
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,96,223 ; punpcklbw %xmm7,%xmm3
- DB 102,15,127,93,184 ; movdqa %xmm3,-0x48(%ebp)
- DB 102,15,104,231 ; punpckhbw %xmm7,%xmm4
- DB 102,15,111,69,232 ; movdqa -0x18(%ebp),%xmm0
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,96,239 ; punpcklbw %xmm7,%xmm5
- DB 102,15,104,199 ; punpckhbw %xmm7,%xmm0
- DB 102,15,127,69,168 ; movdqa %xmm0,-0x58(%ebp)
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,96,248 ; punpcklbw %xmm0,%xmm7
- DB 102,15,104,208 ; punpckhbw %xmm0,%xmm2
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,96,195 ; punpcklbw %xmm3,%xmm0
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,104,203 ; punpckhbw %xmm3,%xmm1
- DB 102,15,111,93,184 ; movdqa -0x48(%ebp),%xmm3
- DB 102,15,213,251 ; pmullw %xmm3,%xmm7
- DB 102,15,253,251 ; paddw %xmm3,%xmm7
- DB 102,15,213,212 ; pmullw %xmm4,%xmm2
- DB 102,15,253,212 ; paddw %xmm4,%xmm2
- DB 102,15,213,197 ; pmullw %xmm5,%xmm0
- DB 102,15,253,197 ; paddw %xmm5,%xmm0
- DB 102,15,111,93,168 ; movdqa -0x58(%ebp),%xmm3
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,103,193 ; packuswb %xmm1,%xmm0
- DB 102,15,218,198 ; pminub %xmm6,%xmm0
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,103,250 ; packuswb %xmm2,%xmm7
- DB 232,0,0,0,0 ; call c530 <_sk_difference_sse2_8bit+0x1b7>
- DB 88 ; pop %eax
- DB 102,15,218,125,152 ; pminub -0x68(%ebp),%xmm7
- DB 102,15,111,160,128,67,0,0 ; movdqa 0x4380(%eax),%xmm4
- DB 102,15,111,77,136 ; movdqa -0x78(%ebp),%xmm1
- DB 102,15,111,93,232 ; movdqa -0x18(%ebp),%xmm3
- DB 102,15,252,203 ; paddb %xmm3,%xmm1
- DB 102,15,248,200 ; psubb %xmm0,%xmm1
- DB 102,15,219,196 ; pand %xmm4,%xmm0
- DB 102,15,248,200 ; psubb %xmm0,%xmm1
- DB 102,15,219,231 ; pand %xmm7,%xmm4
- DB 102,15,111,69,200 ; movdqa -0x38(%ebp),%xmm0
- DB 102,15,111,85,216 ; movdqa -0x28(%ebp),%xmm2
- DB 102,15,252,194 ; paddb %xmm2,%xmm0
- DB 102,15,248,199 ; psubb %xmm7,%xmm0
- DB 102,15,248,196 ; psubb %xmm4,%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 129,196,136,0,0,0 ; add $0x88,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_hardlight_sse2_8bit
-_sk_hardlight_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 129,236,120,1,0,0 ; sub $0x178,%esp
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,96,230 ; punpcklbw %xmm6,%xmm4
- DB 102,15,127,165,120,255,255,255 ; movdqa %xmm4,-0x88(%ebp)
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,96,230 ; punpcklbw %xmm6,%xmm4
- DB 102,15,127,165,40,255,255,255 ; movdqa %xmm4,-0xd8(%ebp)
- DB 242,15,112,224,231 ; pshuflw $0xe7,%xmm0,%xmm4
- DB 102,15,104,198 ; punpckhbw %xmm6,%xmm0
- DB 102,15,127,133,248,254,255,255 ; movdqa %xmm0,-0x108(%ebp)
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,196,95 ; pshufhw $0x5f,%xmm4,%xmm0
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 102,15,104,206 ; punpckhbw %xmm6,%xmm1
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 243,15,112,204,231 ; pshufhw $0xe7,%xmm4,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,225,95 ; pshufhw $0x5f,%xmm1,%xmm4
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,104,206 ; punpckhbw %xmm6,%xmm1
- DB 102,15,127,77,152 ; movdqa %xmm1,-0x68(%ebp)
- DB 102,15,96,230 ; punpcklbw %xmm6,%xmm4
- DB 102,15,127,101,168 ; movdqa %xmm4,-0x58(%ebp)
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,104,206 ; punpckhbw %xmm6,%xmm1
- DB 102,15,127,77,184 ; movdqa %xmm1,-0x48(%ebp)
- DB 102,15,96,230 ; punpcklbw %xmm6,%xmm4
- DB 102,15,127,165,88,255,255,255 ; movdqa %xmm4,-0xa8(%ebp)
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,96,198 ; punpcklbw %xmm6,%xmm0
- DB 102,15,127,69,136 ; movdqa %xmm0,-0x78(%ebp)
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,127,149,136,254,255,255 ; movdqa %xmm2,-0x178(%ebp)
- DB 102,15,104,198 ; punpckhbw %xmm6,%xmm0
- DB 102,15,127,133,24,255,255,255 ; movdqa %xmm0,-0xe8(%ebp)
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,96,198 ; punpcklbw %xmm6,%xmm0
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,127,157,152,254,255,255 ; movdqa %xmm3,-0x168(%ebp)
- DB 102,15,104,198 ; punpckhbw %xmm6,%xmm0
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 242,15,112,202,231 ; pshuflw $0xe7,%xmm2,%xmm1
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,209,95 ; pshufhw $0x5f,%xmm1,%xmm2
- DB 242,15,112,203,231 ; pshuflw $0xe7,%xmm3,%xmm1
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,201,95 ; pshufhw $0x5f,%xmm1,%xmm1
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,104,198 ; punpckhbw %xmm6,%xmm0
- DB 102,15,127,133,72,255,255,255 ; movdqa %xmm0,-0xb8(%ebp)
- DB 102,15,96,206 ; punpcklbw %xmm6,%xmm1
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,127,157,104,255,255,255 ; movdqa %xmm3,-0x98(%ebp)
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,104,206 ; punpckhbw %xmm6,%xmm1
- DB 102,15,127,141,232,254,255,255 ; movdqa %xmm1,-0x118(%ebp)
- DB 102,15,96,214 ; punpcklbw %xmm6,%xmm2
- DB 102,15,127,85,232 ; movdqa %xmm2,-0x18(%ebp)
- DB 232,0,0,0,0 ; call c6f9 <_sk_hardlight_sse2_8bit+0x16d>
- DB 88 ; pop %eax
- DB 102,15,111,184,151,65,0,0 ; movdqa 0x4197(%eax),%xmm7
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,239,247 ; pxor %xmm7,%xmm6
- DB 102,15,239,207 ; pxor %xmm7,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,239,215 ; pxor %xmm7,%xmm2
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,239,223 ; pxor %xmm7,%xmm3
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,127,133,56,255,255,255 ; movdqa %xmm0,-0xc8(%ebp)
- DB 102,15,213,216 ; pmullw %xmm0,%xmm3
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,239,239 ; pxor %xmm7,%xmm5
- DB 102,15,111,69,184 ; movdqa -0x48(%ebp),%xmm0
- DB 102,15,239,199 ; pxor %xmm7,%xmm0
- DB 102,15,111,101,168 ; movdqa -0x58(%ebp),%xmm4
- DB 102,15,239,231 ; pxor %xmm7,%xmm4
- DB 102,15,239,125,152 ; pxor -0x68(%ebp),%xmm7
- DB 102,15,213,125,216 ; pmullw -0x28(%ebp),%xmm7
- DB 102,15,253,251 ; paddw %xmm3,%xmm7
- DB 102,15,127,189,216,254,255,255 ; movdqa %xmm7,-0x128(%ebp)
- DB 102,15,213,149,40,255,255,255 ; pmullw -0xd8(%ebp),%xmm2
- DB 102,15,213,101,200 ; pmullw -0x38(%ebp),%xmm4
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 102,15,127,165,168,254,255,255 ; movdqa %xmm4,-0x158(%ebp)
- DB 102,15,111,149,248,254,255,255 ; movdqa -0x108(%ebp),%xmm2
- DB 102,15,213,202 ; pmullw %xmm2,%xmm1
- DB 102,15,111,157,24,255,255,255 ; movdqa -0xe8(%ebp),%xmm3
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,127,133,184,254,255,255 ; movdqa %xmm0,-0x148(%ebp)
- DB 102,15,111,141,120,255,255,255 ; movdqa -0x88(%ebp),%xmm1
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,15,111,101,136 ; movdqa -0x78(%ebp),%xmm4
- DB 102,15,213,236 ; pmullw %xmm4,%xmm5
- DB 102,15,253,238 ; paddw %xmm6,%xmm5
- DB 102,15,127,173,200,254,255,255 ; movdqa %xmm5,-0x138(%ebp)
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,253,237 ; paddw %xmm5,%xmm5
- DB 102,15,111,141,88,255,255,255 ; movdqa -0xa8(%ebp),%xmm1
- DB 102,15,101,233 ; pcmpgtw %xmm1,%xmm5
- DB 102,15,127,173,8,255,255,255 ; movdqa %xmm5,-0xf8(%ebp)
- DB 102,15,111,109,232 ; movdqa -0x18(%ebp),%xmm5
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,249,236 ; psubw %xmm4,%xmm5
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,127,101,232 ; movdqa %xmm4,-0x18(%ebp)
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,15,127,117,136 ; movdqa %xmm6,-0x78(%ebp)
- DB 102,15,249,200 ; psubw %xmm0,%xmm1
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,127,141,88,255,255,255 ; movdqa %xmm1,-0xa8(%ebp)
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,253,210 ; paddw %xmm2,%xmm2
- DB 102,15,111,77,184 ; movdqa -0x48(%ebp),%xmm1
- DB 102,15,101,209 ; pcmpgtw %xmm1,%xmm2
- DB 102,15,111,165,232,254,255,255 ; movdqa -0x118(%ebp),%xmm4
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,249,227 ; psubw %xmm3,%xmm4
- DB 102,15,213,216 ; pmullw %xmm0,%xmm3
- DB 102,15,127,157,120,255,255,255 ; movdqa %xmm3,-0x88(%ebp)
- DB 102,15,213,249 ; pmullw %xmm1,%xmm7
- DB 102,15,249,200 ; psubw %xmm0,%xmm1
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,15,127,77,184 ; movdqa %xmm1,-0x48(%ebp)
- DB 102,15,111,133,40,255,255,255 ; movdqa -0xd8(%ebp),%xmm0
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,253,237 ; paddw %xmm5,%xmm5
- DB 102,15,111,77,168 ; movdqa -0x58(%ebp),%xmm1
- DB 102,15,101,233 ; pcmpgtw %xmm1,%xmm5
- DB 102,15,111,165,104,255,255,255 ; movdqa -0x98(%ebp),%xmm4
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,111,117,200 ; movdqa -0x38(%ebp),%xmm6
- DB 102,15,249,230 ; psubw %xmm6,%xmm4
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,15,127,117,200 ; movdqa %xmm6,-0x38(%ebp)
- DB 102,15,213,217 ; pmullw %xmm1,%xmm3
- DB 102,15,127,157,104,255,255,255 ; movdqa %xmm3,-0x98(%ebp)
- DB 102,15,249,200 ; psubw %xmm0,%xmm1
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,15,127,77,168 ; movdqa %xmm1,-0x58(%ebp)
- DB 102,15,111,165,56,255,255,255 ; movdqa -0xc8(%ebp),%xmm4
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,111,69,152 ; movdqa -0x68(%ebp),%xmm0
- DB 102,15,101,224 ; pcmpgtw %xmm0,%xmm4
- DB 102,15,111,141,72,255,255,255 ; movdqa -0xb8(%ebp),%xmm1
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,249,77,216 ; psubw -0x28(%ebp),%xmm1
- DB 102,15,127,141,72,255,255,255 ; movdqa %xmm1,-0xb8(%ebp)
- DB 102,15,111,93,216 ; movdqa -0x28(%ebp),%xmm3
- DB 102,15,111,141,56,255,255,255 ; movdqa -0xc8(%ebp),%xmm1
- DB 102,15,213,217 ; pmullw %xmm1,%xmm3
- DB 102,15,127,93,216 ; movdqa %xmm3,-0x28(%ebp)
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,15,213,133,72,255,255,255 ; pmullw -0xb8(%ebp),%xmm0
- DB 102,15,127,69,152 ; movdqa %xmm0,-0x68(%ebp)
- DB 102,15,111,157,88,255,255,255 ; movdqa -0xa8(%ebp),%xmm3
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,15,111,77,136 ; movdqa -0x78(%ebp),%xmm1
- DB 102,15,249,203 ; psubw %xmm3,%xmm1
- DB 102,15,111,93,184 ; movdqa -0x48(%ebp),%xmm3
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,15,249,251 ; psubw %xmm3,%xmm7
- DB 102,15,111,69,168 ; movdqa -0x58(%ebp),%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,111,157,104,255,255,255 ; movdqa -0x98(%ebp),%xmm3
- DB 102,15,249,216 ; psubw %xmm0,%xmm3
- DB 102,15,111,69,152 ; movdqa -0x68(%ebp),%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,249,240 ; psubw %xmm0,%xmm6
- DB 102,15,111,69,232 ; movdqa -0x18(%ebp),%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,127,69,232 ; movdqa %xmm0,-0x18(%ebp)
- DB 102,15,111,133,8,255,255,255 ; movdqa -0xf8(%ebp),%xmm0
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 102,15,223,69,232 ; pandn -0x18(%ebp),%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,111,141,120,255,255,255 ; movdqa -0x88(%ebp),%xmm1
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,15,219,250 ; pand %xmm2,%xmm7
- DB 102,15,223,209 ; pandn %xmm1,%xmm2
- DB 102,15,235,215 ; por %xmm7,%xmm2
- DB 102,15,111,77,200 ; movdqa -0x38(%ebp),%xmm1
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,15,219,221 ; pand %xmm5,%xmm3
- DB 102,15,223,233 ; pandn %xmm1,%xmm5
- DB 102,15,235,235 ; por %xmm3,%xmm5
- DB 102,15,111,77,216 ; movdqa -0x28(%ebp),%xmm1
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,15,223,225 ; pandn %xmm1,%xmm4
- DB 102,15,235,230 ; por %xmm6,%xmm4
- DB 102,15,111,136,199,65,0,0 ; movdqa 0x41c7(%eax),%xmm1
- DB 102,15,111,157,200,254,255,255 ; movdqa -0x138(%ebp),%xmm3
- DB 102,15,253,217 ; paddw %xmm1,%xmm3
- DB 102,15,253,195 ; paddw %xmm3,%xmm0
- DB 102,15,111,157,184,254,255,255 ; movdqa -0x148(%ebp),%xmm3
- DB 102,15,253,217 ; paddw %xmm1,%xmm3
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 102,15,111,149,168,254,255,255 ; movdqa -0x158(%ebp),%xmm2
- DB 102,15,253,209 ; paddw %xmm1,%xmm2
- DB 102,15,253,234 ; paddw %xmm2,%xmm5
- DB 102,15,111,149,216,254,255,255 ; movdqa -0x128(%ebp),%xmm2
- DB 102,15,253,209 ; paddw %xmm1,%xmm2
- DB 102,15,253,212 ; paddw %xmm4,%xmm2
- DB 102,15,111,136,215,65,0,0 ; movdqa 0x41d7(%eax),%xmm1
- DB 102,15,228,209 ; pmulhuw %xmm1,%xmm2
- DB 102,15,113,210,7 ; psrlw $0x7,%xmm2
- DB 102,15,228,233 ; pmulhuw %xmm1,%xmm5
- DB 102,15,113,213,7 ; psrlw $0x7,%xmm5
- DB 102,15,103,234 ; packuswb %xmm2,%xmm5
- DB 102,15,228,217 ; pmulhuw %xmm1,%xmm3
- DB 102,15,228,193 ; pmulhuw %xmm1,%xmm0
- DB 102,15,113,211,7 ; psrlw $0x7,%xmm3
- DB 102,15,113,208,7 ; psrlw $0x7,%xmm0
- DB 102,15,103,195 ; packuswb %xmm3,%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 15,40,149,136,254,255,255 ; movaps -0x178(%ebp),%xmm2
- DB 15,40,157,152,254,255,255 ; movaps -0x168(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 129,196,136,1,0,0 ; add $0x188,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_overlay_sse2_8bit
-_sk_overlay_sse2_8bit LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 129,236,120,1,0,0 ; sub $0x178,%esp
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,96,229 ; punpcklbw %xmm5,%xmm4
- DB 102,15,127,165,104,255,255,255 ; movdqa %xmm4,-0x98(%ebp)
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,96,229 ; punpcklbw %xmm5,%xmm4
- DB 102,15,127,101,184 ; movdqa %xmm4,-0x48(%ebp)
- DB 242,15,112,224,231 ; pshuflw $0xe7,%xmm0,%xmm4
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,127,133,248,254,255,255 ; movdqa %xmm0,-0x108(%ebp)
- DB 243,15,112,228,231 ; pshufhw $0xe7,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,96,228 ; punpcklbw %xmm4,%xmm4
- DB 242,15,112,228,95 ; pshuflw $0x5f,%xmm4,%xmm4
- DB 243,15,112,196,95 ; pshufhw $0x5f,%xmm4,%xmm0
- DB 242,15,112,225,231 ; pshuflw $0xe7,%xmm1,%xmm4
- DB 102,15,104,205 ; punpckhbw %xmm5,%xmm1
- DB 102,15,127,141,72,255,255,255 ; movdqa %xmm1,-0xb8(%ebp)
- DB 243,15,112,204,231 ; pshufhw $0xe7,%xmm4,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,225,95 ; pshufhw $0x5f,%xmm1,%xmm4
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,104,205 ; punpckhbw %xmm5,%xmm1
- DB 102,15,127,77,152 ; movdqa %xmm1,-0x68(%ebp)
- DB 102,15,96,229 ; punpcklbw %xmm5,%xmm4
- DB 102,15,127,101,168 ; movdqa %xmm4,-0x58(%ebp)
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 102,15,96,205 ; punpcklbw %xmm5,%xmm1
- DB 102,15,127,77,232 ; movdqa %xmm1,-0x18(%ebp)
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,96,197 ; punpcklbw %xmm5,%xmm0
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,127,149,136,254,255,255 ; movdqa %xmm2,-0x178(%ebp)
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,127,133,24,255,255,255 ; movdqa %xmm0,-0xe8(%ebp)
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,96,197 ; punpcklbw %xmm5,%xmm0
- DB 102,15,127,133,40,255,255,255 ; movdqa %xmm0,-0xd8(%ebp)
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,127,165,152,254,255,255 ; movdqa %xmm4,-0x168(%ebp)
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,127,133,56,255,255,255 ; movdqa %xmm0,-0xc8(%ebp)
- DB 242,15,112,202,231 ; pshuflw $0xe7,%xmm2,%xmm1
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,209,95 ; pshufhw $0x5f,%xmm1,%xmm2
- DB 242,15,112,204,231 ; pshuflw $0xe7,%xmm4,%xmm1
- DB 243,15,112,201,231 ; pshufhw $0xe7,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,96,201 ; punpcklbw %xmm1,%xmm1
- DB 242,15,112,201,95 ; pshuflw $0x5f,%xmm1,%xmm1
- DB 243,15,112,201,95 ; pshufhw $0x5f,%xmm1,%xmm1
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,104,197 ; punpckhbw %xmm5,%xmm0
- DB 102,15,127,133,232,254,255,255 ; movdqa %xmm0,-0x118(%ebp)
- DB 102,15,96,205 ; punpcklbw %xmm5,%xmm1
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,127,157,88,255,255,255 ; movdqa %xmm3,-0xa8(%ebp)
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,104,205 ; punpckhbw %xmm5,%xmm1
- DB 102,15,127,141,120,255,255,255 ; movdqa %xmm1,-0x88(%ebp)
- DB 102,15,96,213 ; punpcklbw %xmm5,%xmm2
- DB 102,15,127,85,136 ; movdqa %xmm2,-0x78(%ebp)
- DB 232,0,0,0,0 ; call cbb4 <_sk_overlay_sse2_8bit+0x171>
- DB 88 ; pop %eax
- DB 102,15,111,176,220,60,0,0 ; movdqa 0x3cdc(%eax),%xmm6
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,239,238 ; pxor %xmm6,%xmm5
- DB 102,15,239,206 ; pxor %xmm6,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,239,214 ; pxor %xmm6,%xmm2
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,239,230 ; pxor %xmm6,%xmm4
- DB 102,15,213,165,72,255,255,255 ; pmullw -0xb8(%ebp),%xmm4
- DB 102,15,111,125,232 ; movdqa -0x18(%ebp),%xmm7
- DB 102,15,239,254 ; pxor %xmm6,%xmm7
- DB 102,15,111,93,216 ; movdqa -0x28(%ebp),%xmm3
- DB 102,15,239,222 ; pxor %xmm6,%xmm3
- DB 102,15,111,69,168 ; movdqa -0x58(%ebp),%xmm0
- DB 102,15,239,198 ; pxor %xmm6,%xmm0
- DB 102,15,239,117,152 ; pxor -0x68(%ebp),%xmm6
- DB 102,15,213,181,56,255,255,255 ; pmullw -0xc8(%ebp),%xmm6
- DB 102,15,253,244 ; paddw %xmm4,%xmm6
- DB 102,15,127,181,168,254,255,255 ; movdqa %xmm6,-0x158(%ebp)
- DB 102,15,213,85,184 ; pmullw -0x48(%ebp),%xmm2
- DB 102,15,111,165,40,255,255,255 ; movdqa -0xd8(%ebp),%xmm4
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,253,194 ; paddw %xmm2,%xmm0
- DB 102,15,127,133,184,254,255,255 ; movdqa %xmm0,-0x148(%ebp)
- DB 102,15,111,133,248,254,255,255 ; movdqa -0x108(%ebp),%xmm0
- DB 102,15,213,200 ; pmullw %xmm0,%xmm1
- DB 102,15,111,149,24,255,255,255 ; movdqa -0xe8(%ebp),%xmm2
- DB 102,15,213,218 ; pmullw %xmm2,%xmm3
- DB 102,15,253,217 ; paddw %xmm1,%xmm3
- DB 102,15,127,157,200,254,255,255 ; movdqa %xmm3,-0x138(%ebp)
- DB 102,15,111,141,104,255,255,255 ; movdqa -0x98(%ebp),%xmm1
- DB 102,15,213,233 ; pmullw %xmm1,%xmm5
- DB 102,15,111,93,200 ; movdqa -0x38(%ebp),%xmm3
- DB 102,15,213,251 ; pmullw %xmm3,%xmm7
- DB 102,15,253,253 ; paddw %xmm5,%xmm7
- DB 102,15,127,189,216,254,255,255 ; movdqa %xmm7,-0x128(%ebp)
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,253,237 ; paddw %xmm5,%xmm5
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,111,109,136 ; movdqa -0x78(%ebp),%xmm5
- DB 102,15,101,245 ; pcmpgtw %xmm5,%xmm6
- DB 102,15,127,181,8,255,255,255 ; movdqa %xmm6,-0xf8(%ebp)
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,249,235 ; psubw %xmm3,%xmm5
- DB 102,15,213,217 ; pmullw %xmm1,%xmm3
- DB 102,15,127,93,200 ; movdqa %xmm3,-0x38(%ebp)
- DB 102,15,111,93,232 ; movdqa -0x18(%ebp),%xmm3
- DB 102,15,213,243 ; pmullw %xmm3,%xmm6
- DB 102,15,127,117,136 ; movdqa %xmm6,-0x78(%ebp)
- DB 102,15,249,217 ; psubw %xmm1,%xmm3
- DB 102,15,213,221 ; pmullw %xmm5,%xmm3
- DB 102,15,127,93,232 ; movdqa %xmm3,-0x18(%ebp)
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,253,237 ; paddw %xmm5,%xmm5
- DB 102,15,111,149,120,255,255,255 ; movdqa -0x88(%ebp),%xmm2
- DB 102,15,101,234 ; pcmpgtw %xmm2,%xmm5
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,249,209 ; psubw %xmm1,%xmm2
- DB 102,15,213,200 ; pmullw %xmm0,%xmm1
- DB 102,15,127,141,104,255,255,255 ; movdqa %xmm1,-0x98(%ebp)
- DB 102,15,111,77,216 ; movdqa -0x28(%ebp),%xmm1
- DB 102,15,213,241 ; pmullw %xmm1,%xmm6
- DB 102,15,249,200 ; psubw %xmm0,%xmm1
- DB 102,15,213,202 ; pmullw %xmm2,%xmm1
- DB 102,15,127,77,216 ; movdqa %xmm1,-0x28(%ebp)
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,15,111,149,88,255,255,255 ; movdqa -0xa8(%ebp),%xmm2
- DB 102,15,101,218 ; pcmpgtw %xmm2,%xmm3
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,249,208 ; psubw %xmm0,%xmm2
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,111,69,184 ; movdqa -0x48(%ebp),%xmm0
- DB 102,15,213,208 ; pmullw %xmm0,%xmm2
- DB 102,15,127,149,88,255,255,255 ; movdqa %xmm2,-0xa8(%ebp)
- DB 102,15,111,85,168 ; movdqa -0x58(%ebp),%xmm2
- DB 102,15,213,226 ; pmullw %xmm2,%xmm4
- DB 102,15,127,165,120,255,255,255 ; movdqa %xmm4,-0x88(%ebp)
- DB 102,15,249,208 ; psubw %xmm0,%xmm2
- DB 102,15,213,209 ; pmullw %xmm1,%xmm2
- DB 102,15,127,85,168 ; movdqa %xmm2,-0x58(%ebp)
- DB 102,15,111,141,56,255,255,255 ; movdqa -0xc8(%ebp),%xmm1
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,111,133,232,254,255,255 ; movdqa -0x118(%ebp),%xmm0
- DB 102,15,101,224 ; pcmpgtw %xmm0,%xmm4
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,213,141,72,255,255,255 ; pmullw -0xb8(%ebp),%xmm1
- DB 102,15,127,77,184 ; movdqa %xmm1,-0x48(%ebp)
- DB 102,15,111,69,152 ; movdqa -0x68(%ebp),%xmm0
- DB 102,15,213,208 ; pmullw %xmm0,%xmm2
- DB 102,15,249,133,72,255,255,255 ; psubw -0xb8(%ebp),%xmm0
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,127,69,152 ; movdqa %xmm0,-0x68(%ebp)
- DB 102,15,111,77,232 ; movdqa -0x18(%ebp),%xmm1
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,15,127,77,232 ; movdqa %xmm1,-0x18(%ebp)
- DB 102,15,111,77,136 ; movdqa -0x78(%ebp),%xmm1
- DB 102,15,249,77,232 ; psubw -0x18(%ebp),%xmm1
- DB 102,15,111,125,216 ; movdqa -0x28(%ebp),%xmm7
- DB 102,15,253,255 ; paddw %xmm7,%xmm7
- DB 102,15,127,125,216 ; movdqa %xmm7,-0x28(%ebp)
- DB 102,15,249,117,216 ; psubw -0x28(%ebp),%xmm6
- DB 102,15,111,69,168 ; movdqa -0x58(%ebp),%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,111,189,120,255,255,255 ; movdqa -0x88(%ebp),%xmm7
- DB 102,15,249,248 ; psubw %xmm0,%xmm7
- DB 102,15,111,69,152 ; movdqa -0x68(%ebp),%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,249,208 ; psubw %xmm0,%xmm2
- DB 102,15,111,69,200 ; movdqa -0x38(%ebp),%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,111,133,8,255,255,255 ; movdqa -0xf8(%ebp),%xmm0
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 102,15,223,69,200 ; pandn -0x38(%ebp),%xmm0
- DB 102,15,235,200 ; por %xmm0,%xmm1
- DB 102,15,111,133,104,255,255,255 ; movdqa -0x98(%ebp),%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 102,15,223,232 ; pandn %xmm0,%xmm5
- DB 102,15,235,238 ; por %xmm6,%xmm5
- DB 102,15,111,133,88,255,255,255 ; movdqa -0xa8(%ebp),%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,219,243 ; pand %xmm3,%xmm6
- DB 102,15,223,216 ; pandn %xmm0,%xmm3
- DB 102,15,235,243 ; por %xmm3,%xmm6
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,111,69,184 ; movdqa -0x48(%ebp),%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,219,212 ; pand %xmm4,%xmm2
- DB 102,15,223,224 ; pandn %xmm0,%xmm4
- DB 102,15,235,226 ; por %xmm2,%xmm4
- DB 102,15,111,128,12,61,0,0 ; movdqa 0x3d0c(%eax),%xmm0
- DB 102,15,111,149,216,254,255,255 ; movdqa -0x128(%ebp),%xmm2
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,15,253,209 ; paddw %xmm1,%xmm2
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,111,149,200,254,255,255 ; movdqa -0x138(%ebp),%xmm2
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,15,253,213 ; paddw %xmm5,%xmm2
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,111,149,184,254,255,255 ; movdqa -0x148(%ebp),%xmm2
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,111,141,168,254,255,255 ; movdqa -0x158(%ebp),%xmm1
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,15,111,128,28,61,0,0 ; movdqa 0x3d1c(%eax),%xmm0
- DB 102,15,228,200 ; pmulhuw %xmm0,%xmm1
- DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,15,228,208 ; pmulhuw %xmm0,%xmm2
- DB 102,15,113,210,7 ; psrlw $0x7,%xmm2
- DB 102,15,103,209 ; packuswb %xmm1,%xmm2
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,228,216 ; pmulhuw %xmm0,%xmm3
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,15,228,208 ; pmulhuw %xmm0,%xmm2
- DB 102,15,113,211,7 ; psrlw $0x7,%xmm3
- DB 102,15,113,210,7 ; psrlw $0x7,%xmm2
- DB 102,15,103,211 ; packuswb %xmm3,%xmm2
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 15,40,149,136,254,255,255 ; movaps -0x178(%ebp),%xmm2
- DB 15,40,157,152,254,255,255 ; movaps -0x168(%ebp),%xmm3
- DB 255,117,20 ; pushl 0x14(%ebp)
- DB 255,117,16 ; pushl 0x10(%ebp)
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 129,196,136,1,0,0 ; add $0x188,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 144 ; nop
- DB 144 ; nop
- DB 144 ; nop
-
PUBLIC _sk_start_pipeline_sse2_lowp
_sk_start_pipeline_sse2_lowp LABEL PROC
DB 85 ; push %ebp
@@ -67725,7 +53221,7 @@ _sk_start_pipeline_sse2_lowp LABEL PROC
DB 131,236,96 ; sub $0x60,%esp
DB 139,125,12 ; mov 0xc(%ebp),%edi
DB 59,125,20 ; cmp 0x14(%ebp),%edi
- DB 15,131,198,0,0,0 ; jae cffe <_sk_start_pipeline_sse2_lowp+0xde>
+ DB 15,131,198,0,0,0 ; jae 93e2 <_sk_start_pipeline_sse2_lowp+0xde>
DB 139,85,16 ; mov 0x10(%ebp),%edx
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 139,117,24 ; mov 0x18(%ebp),%esi
@@ -67739,7 +53235,7 @@ _sk_start_pipeline_sse2_lowp LABEL PROC
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 137,223 ; mov %ebx,%edi
DB 137,243 ; mov %esi,%ebx
- DB 119,78 ; ja cfaf <_sk_start_pipeline_sse2_lowp+0x8f>
+ DB 119,78 ; ja 9393 <_sk_start_pipeline_sse2_lowp+0x8f>
DB 139,117,8 ; mov 0x8(%ebp),%esi
DB 15,41,68,36,64 ; movaps %xmm0,0x40(%esp)
DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
@@ -67761,13 +53257,13 @@ _sk_start_pipeline_sse2_lowp LABEL PROC
DB 131,198,16 ; add $0x10,%esi
DB 57,214 ; cmp %edx,%esi
DB 137,198 ; mov %eax,%esi
- DB 118,181 ; jbe cf64 <_sk_start_pipeline_sse2_lowp+0x44>
+ DB 118,181 ; jbe 9348 <_sk_start_pipeline_sse2_lowp+0x44>
DB 137,209 ; mov %edx,%ecx
DB 41,193 ; sub %eax,%ecx
DB 137,222 ; mov %ebx,%esi
DB 137,251 ; mov %edi,%ebx
DB 139,124,36,84 ; mov 0x54(%esp),%edi
- DB 116,55 ; je cff4 <_sk_start_pipeline_sse2_lowp+0xd4>
+ DB 116,55 ; je 93d8 <_sk_start_pipeline_sse2_lowp+0xd4>
DB 15,41,68,36,64 ; movaps %xmm0,0x40(%esp)
DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
@@ -67785,7 +53281,7 @@ _sk_start_pipeline_sse2_lowp LABEL PROC
DB 139,85,16 ; mov 0x10(%ebp),%edx
DB 71 ; inc %edi
DB 59,125,20 ; cmp 0x14(%ebp),%edi
- DB 15,133,82,255,255,255 ; jne cf50 <_sk_start_pipeline_sse2_lowp+0x30>
+ DB 15,133,82,255,255,255 ; jne 9334 <_sk_start_pipeline_sse2_lowp+0x30>
DB 141,101,244 ; lea -0xc(%ebp),%esp
DB 94 ; pop %esi
DB 95 ; pop %edi
@@ -67853,7 +53349,7 @@ _sk_black_color_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,92 ; sub $0x5c,%esp
- DB 232,0,0,0,0 ; call d0b3 <_sk_black_color_sse2_lowp+0xe>
+ DB 232,0,0,0,0 ; call 9497 <_sk_black_color_sse2_lowp+0xe>
DB 88 ; pop %eax
DB 139,77,8 ; mov 0x8(%ebp),%ecx
DB 139,85,16 ; mov 0x10(%ebp),%edx
@@ -67872,7 +53368,7 @@ _sk_black_color_sse2_lowp LABEL PROC
DB 137,84,36,8 ; mov %edx,0x8(%esp)
DB 137,92,36,4 ; mov %ebx,0x4(%esp)
DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,40,152,221,55,0,0 ; movaps 0x37dd(%eax),%xmm3
+ DB 15,40,152,137,55,0,0 ; movaps 0x3789(%eax),%xmm3
DB 15,87,192 ; xorps %xmm0,%xmm0
DB 15,87,201 ; xorps %xmm1,%xmm1
DB 15,87,210 ; xorps %xmm2,%xmm2
@@ -67892,7 +53388,7 @@ _sk_white_color_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,92 ; sub $0x5c,%esp
- DB 232,0,0,0,0 ; call d11e <_sk_white_color_sse2_lowp+0xe>
+ DB 232,0,0,0,0 ; call 9502 <_sk_white_color_sse2_lowp+0xe>
DB 88 ; pop %eax
DB 139,77,8 ; mov 0x8(%ebp),%ecx
DB 139,85,16 ; mov 0x10(%ebp),%edx
@@ -67911,7 +53407,7 @@ _sk_white_color_sse2_lowp LABEL PROC
DB 137,84,36,8 ; mov %edx,0x8(%esp)
DB 137,92,36,4 ; mov %ebx,0x4(%esp)
DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,40,128,114,55,0,0 ; movaps 0x3772(%eax),%xmm0
+ DB 15,40,128,30,55,0,0 ; movaps 0x371e(%eax),%xmm0
DB 15,40,200 ; movaps %xmm0,%xmm1
DB 15,40,208 ; movaps %xmm0,%xmm2
DB 15,40,216 ; movaps %xmm0,%xmm3
@@ -67930,16 +53426,16 @@ _sk_set_rgb_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call d188 <_sk_set_rgb_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call 956c <_sk_set_rgb_sse2_lowp+0xd>
DB 94 ; pop %esi
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 139,85,16 ; mov 0x10(%ebp),%edx
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 139,57 ; mov (%ecx),%edi
- DB 243,15,16,150,220,55,0,0 ; movss 0x37dc(%esi),%xmm2
+ DB 243,15,16,150,72,55,0,0 ; movss 0x3748(%esi),%xmm2
DB 243,15,16,7 ; movss (%edi),%xmm0
DB 243,15,89,194 ; mulss %xmm2,%xmm0
- DB 243,15,16,142,216,55,0,0 ; movss 0x37d8(%esi),%xmm1
+ DB 243,15,16,142,68,55,0,0 ; movss 0x3744(%esi),%xmm1
DB 243,15,88,193 ; addss %xmm1,%xmm0
DB 243,15,44,240 ; cvttss2si %xmm0,%esi
DB 102,15,110,198 ; movd %esi,%xmm0
@@ -67986,7 +53482,7 @@ _sk_premul_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call d24c <_sk_premul_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call 9630 <_sk_premul_sse2_lowp+0xd>
DB 90 ; pop %edx
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 139,77,16 ; mov 0x10(%ebp),%ecx
@@ -67995,7 +53491,7 @@ _sk_premul_sse2_lowp LABEL PROC
DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,111,186,68,54,0,0 ; movdqa 0x3644(%edx),%xmm7
+ DB 102,15,111,186,240,53,0,0 ; movdqa 0x35f0(%edx),%xmm7
DB 102,15,253,199 ; paddw %xmm7,%xmm0
DB 102,15,213,203 ; pmullw %xmm3,%xmm1
DB 102,15,253,207 ; paddw %xmm7,%xmm1
@@ -68121,12 +53617,12 @@ _sk_invert_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call d3c6 <_sk_invert_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call 97aa <_sk_invert_sse2_lowp+0xd>
DB 88 ; pop %eax
DB 139,77,8 ; mov 0x8(%ebp),%ecx
DB 139,85,16 ; mov 0x10(%ebp),%edx
DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 102,15,111,160,202,52,0,0 ; movdqa 0x34ca(%eax),%xmm4
+ DB 102,15,111,160,118,52,0,0 ; movdqa 0x3476(%eax),%xmm4
DB 102,15,111,236 ; movdqa %xmm4,%xmm5
DB 102,15,249,232 ; psubw %xmm0,%xmm5
DB 102,15,111,244 ; movdqa %xmm4,%xmm6
@@ -68204,11 +53700,11 @@ _sk_srcatop_sse2_lowp LABEL PROC
DB 102,15,111,234 ; movdqa %xmm2,%xmm5
DB 102,15,111,209 ; movdqa %xmm1,%xmm2
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call d4be <_sk_srcatop_sse2_lowp+0x19>
+ DB 232,0,0,0,0 ; call 98a2 <_sk_srcatop_sse2_lowp+0x19>
DB 88 ; pop %eax
DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,15,111,128,210,51,0,0 ; movdqa 0x33d2(%eax),%xmm0
+ DB 102,15,111,128,126,51,0,0 ; movdqa 0x337e(%eax),%xmm0
DB 102,15,253,200 ; paddw %xmm0,%xmm1
DB 102,15,213,214 ; pmullw %xmm6,%xmm2
DB 102,15,253,208 ; paddw %xmm0,%xmm2
@@ -68264,12 +53760,12 @@ _sk_dstatop_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call d592 <_sk_dstatop_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call 9976 <_sk_dstatop_sse2_lowp+0xd>
DB 88 ; pop %eax
DB 102,15,111,101,40 ; movdqa 0x28(%ebp),%xmm4
DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
DB 102,15,213,243 ; pmullw %xmm3,%xmm6
- DB 102,15,111,184,254,50,0,0 ; movdqa 0x32fe(%eax),%xmm7
+ DB 102,15,111,184,170,50,0,0 ; movdqa 0x32aa(%eax),%xmm7
DB 102,15,253,247 ; paddw %xmm7,%xmm6
DB 102,15,213,227 ; pmullw %xmm3,%xmm4
DB 102,15,253,231 ; paddw %xmm7,%xmm4
@@ -68320,7 +53816,7 @@ _sk_srcin_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call d653 <_sk_srcin_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call 9a37 <_sk_srcin_sse2_lowp+0xd>
DB 94 ; pop %esi
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 139,77,16 ; mov 0x10(%ebp),%ecx
@@ -68329,7 +53825,7 @@ _sk_srcin_sse2_lowp LABEL PROC
DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,111,190,61,50,0,0 ; movdqa 0x323d(%esi),%xmm7
+ DB 102,15,111,190,233,49,0,0 ; movdqa 0x31e9(%esi),%xmm7
DB 102,15,253,199 ; paddw %xmm7,%xmm0
DB 102,15,213,206 ; pmullw %xmm6,%xmm1
DB 102,15,253,207 ; paddw %xmm7,%xmm1
@@ -68366,14 +53862,14 @@ _sk_dstin_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call d6ea <_sk_dstin_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call 9ace <_sk_dstin_sse2_lowp+0xd>
DB 88 ; pop %eax
DB 102,15,111,85,56 ; movdqa 0x38(%ebp),%xmm2
DB 102,15,111,109,40 ; movdqa 0x28(%ebp),%xmm5
DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
DB 102,15,111,198 ; movdqa %xmm6,%xmm0
DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,111,184,166,49,0,0 ; movdqa 0x31a6(%eax),%xmm7
+ DB 102,15,111,184,82,49,0,0 ; movdqa 0x3152(%eax),%xmm7
DB 102,15,253,199 ; paddw %xmm7,%xmm0
DB 102,15,111,205 ; movdqa %xmm5,%xmm1
DB 102,15,213,203 ; pmullw %xmm3,%xmm1
@@ -68415,14 +53911,14 @@ _sk_srcout_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call d792 <_sk_srcout_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call 9b76 <_sk_srcout_sse2_lowp+0xd>
DB 94 ; pop %esi
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 139,77,16 ; mov 0x10(%ebp),%ecx
DB 139,85,20 ; mov 0x14(%ebp),%edx
DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
DB 102,15,111,109,72 ; movdqa 0x48(%ebp),%xmm5
- DB 102,15,111,182,254,48,0,0 ; movdqa 0x30fe(%esi),%xmm6
+ DB 102,15,111,182,170,48,0,0 ; movdqa 0x30aa(%esi),%xmm6
DB 102,15,111,254 ; movdqa %xmm6,%xmm7
DB 102,15,249,253 ; psubw %xmm5,%xmm7
DB 102,15,213,199 ; pmullw %xmm7,%xmm0
@@ -68464,11 +53960,11 @@ _sk_dstout_sse2_lowp LABEL PROC
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 232,0,0,0,0 ; call d835 <_sk_dstout_sse2_lowp+0x11>
+ DB 232,0,0,0,0 ; call 9c19 <_sk_dstout_sse2_lowp+0x11>
DB 88 ; pop %eax
DB 102,15,111,109,56 ; movdqa 0x38(%ebp),%xmm5
DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
- DB 102,15,111,184,91,48,0,0 ; movdqa 0x305b(%eax),%xmm7
+ DB 102,15,111,184,7,48,0,0 ; movdqa 0x3007(%eax),%xmm7
DB 102,15,111,223 ; movdqa %xmm7,%xmm3
DB 102,15,249,216 ; psubw %xmm0,%xmm3
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
@@ -68518,9 +54014,9 @@ _sk_srcover_sse2_lowp LABEL PROC
DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
DB 102,15,111,209 ; movdqa %xmm1,%xmm2
DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 232,0,0,0,0 ; call d8f1 <_sk_srcover_sse2_lowp+0x19>
+ DB 232,0,0,0,0 ; call 9cd5 <_sk_srcover_sse2_lowp+0x19>
DB 88 ; pop %eax
- DB 102,15,111,136,159,47,0,0 ; movdqa 0x2f9f(%eax),%xmm1
+ DB 102,15,111,136,75,47,0,0 ; movdqa 0x2f4b(%eax),%xmm1
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
DB 102,15,249,195 ; psubw %xmm3,%xmm0
DB 102,15,111,248 ; movdqa %xmm0,%xmm7
@@ -68577,7 +54073,7 @@ _sk_dstover_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call d9c1 <_sk_dstover_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call 9da5 <_sk_dstover_sse2_lowp+0xd>
DB 95 ; pop %edi
DB 139,77,8 ; mov 0x8(%ebp),%ecx
DB 139,85,16 ; mov 0x10(%ebp),%edx
@@ -68585,7 +54081,7 @@ _sk_dstover_sse2_lowp LABEL PROC
DB 139,69,12 ; mov 0xc(%ebp),%eax
DB 102,15,111,101,56 ; movdqa 0x38(%ebp),%xmm4
DB 102,15,111,109,72 ; movdqa 0x48(%ebp),%xmm5
- DB 102,15,111,183,207,46,0,0 ; movdqa 0x2ecf(%edi),%xmm6
+ DB 102,15,111,183,123,46,0,0 ; movdqa 0x2e7b(%edi),%xmm6
DB 102,15,111,254 ; movdqa %xmm6,%xmm7
DB 102,15,249,253 ; psubw %xmm5,%xmm7
DB 102,15,213,199 ; pmullw %xmm7,%xmm0
@@ -68629,12 +54125,12 @@ _sk_modulate_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call da76 <_sk_modulate_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call 9e5a <_sk_modulate_sse2_lowp+0xd>
DB 88 ; pop %eax
DB 102,15,111,109,40 ; movdqa 0x28(%ebp),%xmm5
DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,111,184,26,46,0,0 ; movdqa 0x2e1a(%eax),%xmm7
+ DB 102,15,111,184,198,45,0,0 ; movdqa 0x2dc6(%eax),%xmm7
DB 102,15,253,199 ; paddw %xmm7,%xmm0
DB 102,15,213,205 ; pmullw %xmm5,%xmm1
DB 102,15,253,207 ; paddw %xmm7,%xmm1
@@ -68675,10 +54171,10 @@ _sk_multiply_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call db12 <_sk_multiply_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call 9ef6 <_sk_multiply_sse2_lowp+0xd>
DB 88 ; pop %eax
DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
- DB 102,15,111,160,126,45,0,0 ; movdqa 0x2d7e(%eax),%xmm4
+ DB 102,15,111,160,42,45,0,0 ; movdqa 0x2d2a(%eax),%xmm4
DB 102,15,111,245 ; movdqa %xmm5,%xmm6
DB 102,15,253,244 ; paddw %xmm4,%xmm6
DB 102,15,249,117,72 ; psubw 0x48(%ebp),%xmm6
@@ -68746,17 +54242,17 @@ _sk_plus__sse2_lowp LABEL PROC
DB 131,236,96 ; sub $0x60,%esp
DB 102,15,111,225 ; movdqa %xmm1,%xmm4
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call dc13 <_sk_plus__sse2_lowp+0x15>
+ DB 232,0,0,0,0 ; call 9ff7 <_sk_plus__sse2_lowp+0x15>
DB 88 ; pop %eax
DB 102,15,253,77,24 ; paddw 0x18(%ebp),%xmm1
- DB 102,15,111,168,205,44,0,0 ; movdqa 0x2ccd(%eax),%xmm5
+ DB 102,15,111,168,57,44,0,0 ; movdqa 0x2c39(%eax),%xmm5
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
DB 102,15,217,197 ; psubusw %xmm5,%xmm0
DB 102,15,127,109,232 ; movdqa %xmm5,-0x18(%ebp)
DB 102,15,239,255 ; pxor %xmm7,%xmm7
DB 102,15,117,199 ; pcmpeqw %xmm7,%xmm0
DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 102,15,111,176,125,44,0,0 ; movdqa 0x2c7d(%eax),%xmm6
+ DB 102,15,111,176,41,44,0,0 ; movdqa 0x2c29(%eax),%xmm6
DB 102,15,223,198 ; pandn %xmm6,%xmm0
DB 102,15,235,193 ; por %xmm1,%xmm0
DB 102,15,253,101,40 ; paddw 0x28(%ebp),%xmm4
@@ -68815,14 +54311,14 @@ _sk_screen_sse2_lowp LABEL PROC
DB 131,236,80 ; sub $0x50,%esp
DB 102,15,111,225 ; movdqa %xmm1,%xmm4
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call dd0b <_sk_screen_sse2_lowp+0x15>
+ DB 232,0,0,0,0 ; call a0ef <_sk_screen_sse2_lowp+0x15>
DB 88 ; pop %eax
DB 102,15,111,109,40 ; movdqa 0x28(%ebp),%xmm5
DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
DB 102,15,111,198 ; movdqa %xmm6,%xmm0
DB 102,15,253,193 ; paddw %xmm1,%xmm0
DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,15,111,176,133,43,0,0 ; movdqa 0x2b85(%eax),%xmm6
+ DB 102,15,111,176,49,43,0,0 ; movdqa 0x2b31(%eax),%xmm6
DB 102,15,253,206 ; paddw %xmm6,%xmm1
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
@@ -68878,9 +54374,9 @@ _sk_xor__sse2_lowp LABEL PROC
DB 86 ; push %esi
DB 131,236,96 ; sub $0x60,%esp
DB 102,15,127,93,232 ; movdqa %xmm3,-0x18(%ebp)
- DB 232,0,0,0,0 ; call ddeb <_sk_xor__sse2_lowp+0x12>
+ DB 232,0,0,0,0 ; call a1cf <_sk_xor__sse2_lowp+0x12>
DB 88 ; pop %eax
- DB 102,15,111,176,165,42,0,0 ; movdqa 0x2aa5(%eax),%xmm6
+ DB 102,15,111,176,81,42,0,0 ; movdqa 0x2a51(%eax),%xmm6
DB 102,15,111,254 ; movdqa %xmm6,%xmm7
DB 102,15,249,125,72 ; psubw 0x48(%ebp),%xmm7
DB 102,15,213,199 ; pmullw %xmm7,%xmm0
@@ -68945,7 +54441,7 @@ _sk_darken_sse2_lowp LABEL PROC
DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
DB 102,15,111,225 ; movdqa %xmm1,%xmm4
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call dee0 <_sk_darken_sse2_lowp+0x25>
+ DB 232,0,0,0,0 ; call a2c4 <_sk_darken_sse2_lowp+0x25>
DB 88 ; pop %eax
DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
@@ -68956,7 +54452,7 @@ _sk_darken_sse2_lowp LABEL PROC
DB 102,15,111,222 ; movdqa %xmm6,%xmm3
DB 102,15,111,197 ; movdqa %xmm5,%xmm0
DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,111,184,16,42,0,0 ; movdqa 0x2a10(%eax),%xmm7
+ DB 102,15,111,184,124,41,0,0 ; movdqa 0x297c(%eax),%xmm7
DB 102,15,111,241 ; movdqa %xmm1,%xmm6
DB 102,15,239,247 ; pxor %xmm7,%xmm6
DB 102,15,111,232 ; movdqa %xmm0,%xmm5
@@ -68965,7 +54461,7 @@ _sk_darken_sse2_lowp LABEL PROC
DB 102,15,219,197 ; pand %xmm5,%xmm0
DB 102,15,223,233 ; pandn %xmm1,%xmm5
DB 102,15,235,232 ; por %xmm0,%xmm5
- DB 102,15,111,128,176,41,0,0 ; movdqa 0x29b0(%eax),%xmm0
+ DB 102,15,111,128,92,41,0,0 ; movdqa 0x295c(%eax),%xmm0
DB 102,15,127,69,232 ; movdqa %xmm0,-0x18(%ebp)
DB 102,15,253,232 ; paddw %xmm0,%xmm5
DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
@@ -69054,7 +54550,7 @@ _sk_lighten_sse2_lowp LABEL PROC
DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
DB 102,15,111,225 ; movdqa %xmm1,%xmm4
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call e089 <_sk_lighten_sse2_lowp+0x25>
+ DB 232,0,0,0,0 ; call a46d <_sk_lighten_sse2_lowp+0x25>
DB 88 ; pop %eax
DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
DB 102,15,111,197 ; movdqa %xmm5,%xmm0
@@ -69063,7 +54559,7 @@ _sk_lighten_sse2_lowp LABEL PROC
DB 102,15,213,77,72 ; pmullw 0x48(%ebp),%xmm1
DB 102,15,111,197 ; movdqa %xmm5,%xmm0
DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,111,184,103,40,0,0 ; movdqa 0x2867(%eax),%xmm7
+ DB 102,15,111,184,211,39,0,0 ; movdqa 0x27d3(%eax),%xmm7
DB 102,15,111,241 ; movdqa %xmm1,%xmm6
DB 102,15,239,247 ; pxor %xmm7,%xmm6
DB 102,15,111,232 ; movdqa %xmm0,%xmm5
@@ -69072,7 +54568,7 @@ _sk_lighten_sse2_lowp LABEL PROC
DB 102,15,219,205 ; pand %xmm5,%xmm1
DB 102,15,223,232 ; pandn %xmm0,%xmm5
DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,111,128,7,40,0,0 ; movdqa 0x2807(%eax),%xmm0
+ DB 102,15,111,128,179,39,0,0 ; movdqa 0x27b3(%eax),%xmm0
DB 102,15,253,232 ; paddw %xmm0,%xmm5
DB 102,15,111,208 ; movdqa %xmm0,%xmm2
DB 102,15,127,85,232 ; movdqa %xmm2,-0x18(%ebp)
@@ -69160,7 +54656,7 @@ _sk_difference_sse2_lowp LABEL PROC
DB 15,41,85,184 ; movaps %xmm2,-0x48(%ebp)
DB 102,15,111,225 ; movdqa %xmm1,%xmm4
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call e227 <_sk_difference_sse2_lowp+0x25>
+ DB 232,0,0,0,0 ; call a60b <_sk_difference_sse2_lowp+0x25>
DB 88 ; pop %eax
DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
@@ -69171,7 +54667,7 @@ _sk_difference_sse2_lowp LABEL PROC
DB 102,15,111,222 ; movdqa %xmm6,%xmm3
DB 102,15,111,197 ; movdqa %xmm5,%xmm0
DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,111,184,201,38,0,0 ; movdqa 0x26c9(%eax),%xmm7
+ DB 102,15,111,184,53,38,0,0 ; movdqa 0x2635(%eax),%xmm7
DB 102,15,111,241 ; movdqa %xmm1,%xmm6
DB 102,15,239,247 ; pxor %xmm7,%xmm6
DB 102,15,111,232 ; movdqa %xmm0,%xmm5
@@ -69180,11 +54676,11 @@ _sk_difference_sse2_lowp LABEL PROC
DB 102,15,219,205 ; pand %xmm5,%xmm1
DB 102,15,223,232 ; pandn %xmm0,%xmm5
DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,111,128,105,38,0,0 ; movdqa 0x2669(%eax),%xmm0
+ DB 102,15,111,128,21,38,0,0 ; movdqa 0x2615(%eax),%xmm0
DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
DB 102,15,253,232 ; paddw %xmm0,%xmm5
DB 102,15,113,213,7 ; psrlw $0x7,%xmm5
- DB 102,15,111,128,217,38,0,0 ; movdqa 0x26d9(%eax),%xmm0
+ DB 102,15,111,128,69,38,0,0 ; movdqa 0x2645(%eax),%xmm0
DB 102,15,127,69,232 ; movdqa %xmm0,-0x18(%ebp)
DB 102,15,219,232 ; pand %xmm0,%xmm5
DB 102,15,249,213 ; psubw %xmm5,%xmm2
@@ -69271,16 +54767,16 @@ _sk_exclusion_sse2_lowp LABEL PROC
DB 131,236,80 ; sub $0x50,%esp
DB 102,15,111,225 ; movdqa %xmm1,%xmm4
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call e3db <_sk_exclusion_sse2_lowp+0x15>
+ DB 232,0,0,0,0 ; call a7bf <_sk_exclusion_sse2_lowp+0x15>
DB 88 ; pop %eax
DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
DB 102,15,111,197 ; movdqa %xmm5,%xmm0
DB 102,15,253,193 ; paddw %xmm1,%xmm0
DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,111,184,181,36,0,0 ; movdqa 0x24b5(%eax),%xmm7
+ DB 102,15,111,184,97,36,0,0 ; movdqa 0x2461(%eax),%xmm7
DB 102,15,253,207 ; paddw %xmm7,%xmm1
DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,15,111,176,37,37,0,0 ; movdqa 0x2525(%eax),%xmm6
+ DB 102,15,111,176,145,36,0,0 ; movdqa 0x2491(%eax),%xmm6
DB 102,15,219,206 ; pand %xmm6,%xmm1
DB 102,15,249,193 ; psubw %xmm1,%xmm0
DB 102,15,111,109,40 ; movdqa 0x28(%ebp),%xmm5
@@ -69339,9 +54835,9 @@ _sk_hardlight_sse2_lowp LABEL PROC
DB 15,41,85,152 ; movaps %xmm2,-0x68(%ebp)
DB 102,15,111,233 ; movdqa %xmm1,%xmm5
DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 232,0,0,0,0 ; call e4d5 <_sk_hardlight_sse2_lowp+0x1c>
+ DB 232,0,0,0,0 ; call a8b9 <_sk_hardlight_sse2_lowp+0x1c>
DB 88 ; pop %eax
- DB 102,15,111,184,187,35,0,0 ; movdqa 0x23bb(%eax),%xmm7
+ DB 102,15,111,184,103,35,0,0 ; movdqa 0x2367(%eax),%xmm7
DB 102,15,127,125,200 ; movdqa %xmm7,-0x38(%ebp)
DB 102,15,111,215 ; movdqa %xmm7,%xmm2
DB 102,15,249,85,72 ; psubw 0x48(%ebp),%xmm2
@@ -69368,7 +54864,7 @@ _sk_hardlight_sse2_lowp LABEL PROC
DB 102,15,111,214 ; movdqa %xmm6,%xmm2
DB 102,15,249,209 ; psubw %xmm1,%xmm2
DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,111,128,27,36,0,0 ; movdqa 0x241b(%eax),%xmm0
+ DB 102,15,111,128,135,35,0,0 ; movdqa 0x2387(%eax),%xmm0
DB 102,15,239,216 ; pxor %xmm0,%xmm3
DB 102,15,127,93,184 ; movdqa %xmm3,-0x48(%ebp)
DB 102,15,111,204 ; movdqa %xmm4,%xmm1
@@ -69473,10 +54969,10 @@ _sk_overlay_sse2_lowp LABEL PROC
DB 15,41,85,152 ; movaps %xmm2,-0x68(%ebp)
DB 15,41,141,120,255,255,255 ; movaps %xmm1,-0x88(%ebp)
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call e6f7 <_sk_overlay_sse2_lowp+0x1f>
+ DB 232,0,0,0,0 ; call aadb <_sk_overlay_sse2_lowp+0x1f>
DB 88 ; pop %eax
DB 102,15,111,69,72 ; movdqa 0x48(%ebp),%xmm0
- DB 102,15,111,184,153,33,0,0 ; movdqa 0x2199(%eax),%xmm7
+ DB 102,15,111,184,69,33,0,0 ; movdqa 0x2145(%eax),%xmm7
DB 102,15,127,125,232 ; movdqa %xmm7,-0x18(%ebp)
DB 102,15,111,215 ; movdqa %xmm7,%xmm2
DB 102,15,249,208 ; psubw %xmm0,%xmm2
@@ -69503,7 +54999,7 @@ _sk_overlay_sse2_lowp LABEL PROC
DB 102,15,249,234 ; psubw %xmm2,%xmm5
DB 102,15,111,195 ; movdqa %xmm3,%xmm0
DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,111,144,249,33,0,0 ; movdqa 0x21f9(%eax),%xmm2
+ DB 102,15,111,144,101,33,0,0 ; movdqa 0x2165(%eax),%xmm2
DB 102,15,127,85,184 ; movdqa %xmm2,-0x48(%ebp)
DB 102,15,239,226 ; pxor %xmm2,%xmm4
DB 102,15,239,194 ; pxor %xmm2,%xmm0
@@ -69631,10 +55127,10 @@ _sk_load_8888_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call e966 <_sk_load_8888_sse2_lowp+0x30>
+ DB 232,0,0,0,0 ; call ad4a <_sk_load_8888_sse2_lowp+0x30>
DB 95 ; pop %edi
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,32 ; ja e98c <_sk_load_8888_sse2_lowp+0x56>
+ DB 119,32 ; ja ad70 <_sk_load_8888_sse2_lowp+0x56>
DB 102,15,239,246 ; pxor %xmm6,%xmm6
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,143,50,1,0,0 ; mov 0x132(%edi,%ecx,4),%ecx
@@ -69643,14 +55139,14 @@ _sk_load_8888_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 243,15,16,28,179 ; movss (%ebx,%esi,4),%xmm3
DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 235,73 ; jmp e9d5 <_sk_load_8888_sse2_lowp+0x9f>
+ DB 235,73 ; jmp adb9 <_sk_load_8888_sse2_lowp+0x9f>
DB 102,15,16,28,179 ; movupd (%ebx,%esi,4),%xmm3
DB 15,16,116,179,16 ; movups 0x10(%ebx,%esi,4),%xmm6
- DB 235,61 ; jmp e9d5 <_sk_load_8888_sse2_lowp+0x9f>
+ DB 235,61 ; jmp adb9 <_sk_load_8888_sse2_lowp+0x9f>
DB 102,15,110,68,179,8 ; movd 0x8(%ebx,%esi,4),%xmm0
DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
DB 102,15,18,28,179 ; movlpd (%ebx,%esi,4),%xmm3
- DB 235,43 ; jmp e9d5 <_sk_load_8888_sse2_lowp+0x9f>
+ DB 235,43 ; jmp adb9 <_sk_load_8888_sse2_lowp+0x9f>
DB 102,15,110,68,179,24 ; movd 0x18(%ebx,%esi,4),%xmm0
DB 102,15,112,240,69 ; pshufd $0x45,%xmm0,%xmm6
DB 243,15,16,68,179,20 ; movss 0x14(%ebx,%esi,4),%xmm0
@@ -69667,7 +55163,7 @@ _sk_load_8888_sse2_lowp LABEL PROC
DB 102,15,114,240,16 ; pslld $0x10,%xmm0
DB 102,15,114,224,16 ; psrad $0x10,%xmm0
DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,15,111,175,42,31,0,0 ; movdqa 0x1f2a(%edi),%xmm5
+ DB 102,15,111,175,214,30,0,0 ; movdqa 0x1ed6(%edi),%xmm5
DB 102,15,111,193 ; movdqa %xmm1,%xmm0
DB 102,15,219,197 ; pand %xmm5,%xmm0
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
@@ -69744,10 +55240,10 @@ _sk_load_8888_dst_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call eaf1 <_sk_load_8888_dst_sse2_lowp+0x3d>
+ DB 232,0,0,0,0 ; call aed5 <_sk_load_8888_dst_sse2_lowp+0x3d>
DB 95 ; pop %edi
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,32 ; ja eb17 <_sk_load_8888_dst_sse2_lowp+0x63>
+ DB 119,32 ; ja aefb <_sk_load_8888_dst_sse2_lowp+0x63>
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,143,59,1,0,0 ; mov 0x13b(%edi,%ecx,4),%ecx
@@ -69756,14 +55252,14 @@ _sk_load_8888_dst_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 243,15,16,60,179 ; movss (%ebx,%esi,4),%xmm7
DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 235,73 ; jmp eb60 <_sk_load_8888_dst_sse2_lowp+0xac>
+ DB 235,73 ; jmp af44 <_sk_load_8888_dst_sse2_lowp+0xac>
DB 102,15,16,60,179 ; movupd (%ebx,%esi,4),%xmm7
DB 15,16,92,179,16 ; movups 0x10(%ebx,%esi,4),%xmm3
- DB 235,61 ; jmp eb60 <_sk_load_8888_dst_sse2_lowp+0xac>
+ DB 235,61 ; jmp af44 <_sk_load_8888_dst_sse2_lowp+0xac>
DB 102,15,110,84,179,8 ; movd 0x8(%ebx,%esi,4),%xmm2
DB 102,15,112,250,69 ; pshufd $0x45,%xmm2,%xmm7
DB 102,15,18,60,179 ; movlpd (%ebx,%esi,4),%xmm7
- DB 235,43 ; jmp eb60 <_sk_load_8888_dst_sse2_lowp+0xac>
+ DB 235,43 ; jmp af44 <_sk_load_8888_dst_sse2_lowp+0xac>
DB 102,15,110,84,179,24 ; movd 0x18(%ebx,%esi,4),%xmm2
DB 102,15,112,218,69 ; pshufd $0x45,%xmm2,%xmm3
DB 243,15,16,84,179,20 ; movss 0x14(%ebx,%esi,4),%xmm2
@@ -69780,7 +55276,7 @@ _sk_load_8888_dst_sse2_lowp LABEL PROC
DB 102,15,114,242,16 ; pslld $0x10,%xmm2
DB 102,15,114,226,16 ; psrad $0x10,%xmm2
DB 102,15,107,242 ; packssdw %xmm2,%xmm6
- DB 102,15,111,151,159,29,0,0 ; movdqa 0x1d9f(%edi),%xmm2
+ DB 102,15,111,151,75,29,0,0 ; movdqa 0x1d4b(%edi),%xmm2
DB 102,15,111,206 ; movdqa %xmm6,%xmm1
DB 102,15,219,202 ; pand %xmm2,%xmm1
DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
@@ -69872,19 +55368,19 @@ _sk_store_8888_sse2_lowp LABEL PROC
DB 128,227,7 ; and $0x7,%bl
DB 254,203 ; dec %bl
DB 128,251,6 ; cmp $0x6,%bl
- DB 232,0,0,0,0 ; call ecbc <_sk_store_8888_sse2_lowp+0x74>
+ DB 232,0,0,0,0 ; call b0a0 <_sk_store_8888_sse2_lowp+0x74>
DB 89 ; pop %ecx
DB 139,117,16 ; mov 0x10(%ebp),%esi
DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 119,19 ; ja ecd9 <_sk_store_8888_sse2_lowp+0x91>
+ DB 119,19 ; ja b0bd <_sk_store_8888_sse2_lowp+0x91>
DB 15,182,219 ; movzbl %bl,%ebx
DB 3,140,153,184,0,0,0 ; add 0xb8(%ecx,%ebx,4),%ecx
DB 255,225 ; jmp *%ecx
DB 102,15,126,60,183 ; movd %xmm7,(%edi,%esi,4)
- DB 235,93 ; jmp ed36 <_sk_store_8888_sse2_lowp+0xee>
+ DB 235,93 ; jmp b11a <_sk_store_8888_sse2_lowp+0xee>
DB 243,15,127,60,183 ; movdqu %xmm7,(%edi,%esi,4)
DB 243,15,127,116,183,16 ; movdqu %xmm6,0x10(%edi,%esi,4)
- DB 235,80 ; jmp ed36 <_sk_store_8888_sse2_lowp+0xee>
+ DB 235,80 ; jmp b11a <_sk_store_8888_sse2_lowp+0xee>
DB 102,15,111,244 ; movdqa %xmm4,%xmm6
DB 15,40,227 ; movaps %xmm3,%xmm4
DB 102,15,112,223,78 ; pshufd $0x4e,%xmm7,%xmm3
@@ -69892,7 +55388,7 @@ _sk_store_8888_sse2_lowp LABEL PROC
DB 15,40,220 ; movaps %xmm4,%xmm3
DB 102,15,111,230 ; movdqa %xmm6,%xmm4
DB 102,15,214,60,183 ; movq %xmm7,(%edi,%esi,4)
- DB 235,48 ; jmp ed36 <_sk_store_8888_sse2_lowp+0xee>
+ DB 235,48 ; jmp b11a <_sk_store_8888_sse2_lowp+0xee>
DB 102,15,112,222,78 ; pshufd $0x4e,%xmm6,%xmm3
DB 102,15,126,92,183,24 ; movd %xmm3,0x18(%edi,%esi,4)
DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
@@ -69929,7 +55425,7 @@ _sk_store_8888_sse2_lowp LABEL PROC
DB 0,0 ; add %al,(%eax)
DB 42,0 ; sub (%eax),%al
DB 0,0 ; add %al,(%eax)
- DB 117,0 ; jne ed82 <_sk_store_8888_sse2_lowp+0x13a>
+ DB 117,0 ; jne b166 <_sk_store_8888_sse2_lowp+0x13a>
DB 0,0 ; add %al,(%eax)
DB 111 ; outsl %ds:(%esi),(%dx)
DB 0,0 ; add %al,(%eax)
@@ -69959,10 +55455,10 @@ _sk_load_bgra_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call edc0 <_sk_load_bgra_sse2_lowp+0x30>
+ DB 232,0,0,0,0 ; call b1a4 <_sk_load_bgra_sse2_lowp+0x30>
DB 95 ; pop %edi
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,32 ; ja ede6 <_sk_load_bgra_sse2_lowp+0x56>
+ DB 119,32 ; ja b1ca <_sk_load_bgra_sse2_lowp+0x56>
DB 102,15,239,246 ; pxor %xmm6,%xmm6
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,143,52,1,0,0 ; mov 0x134(%edi,%ecx,4),%ecx
@@ -69971,14 +55467,14 @@ _sk_load_bgra_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 243,15,16,28,179 ; movss (%ebx,%esi,4),%xmm3
DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 235,73 ; jmp ee2f <_sk_load_bgra_sse2_lowp+0x9f>
+ DB 235,73 ; jmp b213 <_sk_load_bgra_sse2_lowp+0x9f>
DB 102,15,16,28,179 ; movupd (%ebx,%esi,4),%xmm3
DB 15,16,116,179,16 ; movups 0x10(%ebx,%esi,4),%xmm6
- DB 235,61 ; jmp ee2f <_sk_load_bgra_sse2_lowp+0x9f>
+ DB 235,61 ; jmp b213 <_sk_load_bgra_sse2_lowp+0x9f>
DB 102,15,110,68,179,8 ; movd 0x8(%ebx,%esi,4),%xmm0
DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
DB 102,15,18,28,179 ; movlpd (%ebx,%esi,4),%xmm3
- DB 235,43 ; jmp ee2f <_sk_load_bgra_sse2_lowp+0x9f>
+ DB 235,43 ; jmp b213 <_sk_load_bgra_sse2_lowp+0x9f>
DB 102,15,110,68,179,24 ; movd 0x18(%ebx,%esi,4),%xmm0
DB 102,15,112,240,69 ; pshufd $0x45,%xmm0,%xmm6
DB 243,15,16,68,179,20 ; movss 0x14(%ebx,%esi,4),%xmm0
@@ -69995,7 +55491,7 @@ _sk_load_bgra_sse2_lowp LABEL PROC
DB 102,15,114,240,16 ; pslld $0x10,%xmm0
DB 102,15,114,224,16 ; psrad $0x10,%xmm0
DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,15,111,175,208,26,0,0 ; movdqa 0x1ad0(%edi),%xmm5
+ DB 102,15,111,175,124,26,0,0 ; movdqa 0x1a7c(%edi),%xmm5
DB 102,15,111,209 ; movdqa %xmm1,%xmm2
DB 102,15,219,213 ; pand %xmm5,%xmm2
DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
@@ -70073,10 +55569,10 @@ _sk_load_bgra_dst_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call ef4d <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ DB 232,0,0,0,0 ; call b331 <_sk_load_bgra_dst_sse2_lowp+0x3d>
DB 95 ; pop %edi
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,32 ; ja ef73 <_sk_load_bgra_dst_sse2_lowp+0x63>
+ DB 119,32 ; ja b357 <_sk_load_bgra_dst_sse2_lowp+0x63>
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,143,59,1,0,0 ; mov 0x13b(%edi,%ecx,4),%ecx
@@ -70085,14 +55581,14 @@ _sk_load_bgra_dst_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 243,15,16,60,179 ; movss (%ebx,%esi,4),%xmm7
DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 235,73 ; jmp efbc <_sk_load_bgra_dst_sse2_lowp+0xac>
+ DB 235,73 ; jmp b3a0 <_sk_load_bgra_dst_sse2_lowp+0xac>
DB 102,15,16,60,179 ; movupd (%ebx,%esi,4),%xmm7
DB 15,16,92,179,16 ; movups 0x10(%ebx,%esi,4),%xmm3
- DB 235,61 ; jmp efbc <_sk_load_bgra_dst_sse2_lowp+0xac>
+ DB 235,61 ; jmp b3a0 <_sk_load_bgra_dst_sse2_lowp+0xac>
DB 102,15,110,84,179,8 ; movd 0x8(%ebx,%esi,4),%xmm2
DB 102,15,112,250,69 ; pshufd $0x45,%xmm2,%xmm7
DB 102,15,18,60,179 ; movlpd (%ebx,%esi,4),%xmm7
- DB 235,43 ; jmp efbc <_sk_load_bgra_dst_sse2_lowp+0xac>
+ DB 235,43 ; jmp b3a0 <_sk_load_bgra_dst_sse2_lowp+0xac>
DB 102,15,110,84,179,24 ; movd 0x18(%ebx,%esi,4),%xmm2
DB 102,15,112,218,69 ; pshufd $0x45,%xmm2,%xmm3
DB 243,15,16,84,179,20 ; movss 0x14(%ebx,%esi,4),%xmm2
@@ -70109,7 +55605,7 @@ _sk_load_bgra_dst_sse2_lowp LABEL PROC
DB 102,15,114,242,16 ; pslld $0x10,%xmm2
DB 102,15,114,226,16 ; psrad $0x10,%xmm2
DB 102,15,107,242 ; packssdw %xmm2,%xmm6
- DB 102,15,111,151,67,25,0,0 ; movdqa 0x1943(%edi),%xmm2
+ DB 102,15,111,151,239,24,0,0 ; movdqa 0x18ef(%edi),%xmm2
DB 102,15,111,206 ; movdqa %xmm6,%xmm1
DB 102,15,219,202 ; pand %xmm2,%xmm1
DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
@@ -70201,19 +55697,19 @@ _sk_store_bgra_sse2_lowp LABEL PROC
DB 128,227,7 ; and $0x7,%bl
DB 254,203 ; dec %bl
DB 128,251,6 ; cmp $0x6,%bl
- DB 232,0,0,0,0 ; call f118 <_sk_store_bgra_sse2_lowp+0x74>
+ DB 232,0,0,0,0 ; call b4fc <_sk_store_bgra_sse2_lowp+0x74>
DB 89 ; pop %ecx
DB 139,117,16 ; mov 0x10(%ebp),%esi
DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 119,19 ; ja f135 <_sk_store_bgra_sse2_lowp+0x91>
+ DB 119,19 ; ja b519 <_sk_store_bgra_sse2_lowp+0x91>
DB 15,182,219 ; movzbl %bl,%ebx
DB 3,140,153,184,0,0,0 ; add 0xb8(%ecx,%ebx,4),%ecx
DB 255,225 ; jmp *%ecx
DB 102,15,126,60,183 ; movd %xmm7,(%edi,%esi,4)
- DB 235,93 ; jmp f192 <_sk_store_bgra_sse2_lowp+0xee>
+ DB 235,93 ; jmp b576 <_sk_store_bgra_sse2_lowp+0xee>
DB 243,15,127,60,183 ; movdqu %xmm7,(%edi,%esi,4)
DB 243,15,127,116,183,16 ; movdqu %xmm6,0x10(%edi,%esi,4)
- DB 235,80 ; jmp f192 <_sk_store_bgra_sse2_lowp+0xee>
+ DB 235,80 ; jmp b576 <_sk_store_bgra_sse2_lowp+0xee>
DB 102,15,111,244 ; movdqa %xmm4,%xmm6
DB 15,40,227 ; movaps %xmm3,%xmm4
DB 102,15,112,223,78 ; pshufd $0x4e,%xmm7,%xmm3
@@ -70221,7 +55717,7 @@ _sk_store_bgra_sse2_lowp LABEL PROC
DB 15,40,220 ; movaps %xmm4,%xmm3
DB 102,15,111,230 ; movdqa %xmm6,%xmm4
DB 102,15,214,60,183 ; movq %xmm7,(%edi,%esi,4)
- DB 235,48 ; jmp f192 <_sk_store_bgra_sse2_lowp+0xee>
+ DB 235,48 ; jmp b576 <_sk_store_bgra_sse2_lowp+0xee>
DB 102,15,112,222,78 ; pshufd $0x4e,%xmm6,%xmm3
DB 102,15,126,92,183,24 ; movd %xmm3,0x18(%edi,%esi,4)
DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
@@ -70258,7 +55754,7 @@ _sk_store_bgra_sse2_lowp LABEL PROC
DB 0,0 ; add %al,(%eax)
DB 42,0 ; sub (%eax),%al
DB 0,0 ; add %al,(%eax)
- DB 117,0 ; jne f1de <_sk_store_bgra_sse2_lowp+0x13a>
+ DB 117,0 ; jne b5c2 <_sk_store_bgra_sse2_lowp+0x13a>
DB 0,0 ; add %al,(%eax)
DB 111 ; outsl %ds:(%esi),(%dx)
DB 0,0 ; add %al,(%eax)
@@ -70287,10 +55783,10 @@ _sk_load_565_dst_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call f217 <_sk_load_565_dst_sse2_lowp+0x2b>
+ DB 232,0,0,0,0 ; call b5fb <_sk_load_565_dst_sse2_lowp+0x2b>
DB 95 ; pop %edi
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja f239 <_sk_load_565_dst_sse2_lowp+0x4d>
+ DB 119,28 ; ja b61d <_sk_load_565_dst_sse2_lowp+0x4d>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,143,249,0,0,0 ; mov 0xf9(%edi,%ecx,4),%ecx
@@ -70298,14 +55794,14 @@ _sk_load_565_dst_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 15,183,12,115 ; movzwl (%ebx,%esi,2),%ecx
DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 235,59 ; jmp f274 <_sk_load_565_dst_sse2_lowp+0x88>
+ DB 235,59 ; jmp b658 <_sk_load_565_dst_sse2_lowp+0x88>
DB 243,15,111,36,115 ; movdqu (%ebx,%esi,2),%xmm4
- DB 235,52 ; jmp f274 <_sk_load_565_dst_sse2_lowp+0x88>
+ DB 235,52 ; jmp b658 <_sk_load_565_dst_sse2_lowp+0x88>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,100,115,4,2 ; pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
DB 243,15,16,44,115 ; movss (%ebx,%esi,2),%xmm5
DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,30 ; jmp f274 <_sk_load_565_dst_sse2_lowp+0x88>
+ DB 235,30 ; jmp b658 <_sk_load_565_dst_sse2_lowp+0x88>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,100,115,12,6 ; pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
DB 102,15,196,100,115,10,5 ; pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -70313,11 +55809,11 @@ _sk_load_565_dst_sse2_lowp LABEL PROC
DB 102,15,18,36,115 ; movlpd (%ebx,%esi,2),%xmm4
DB 102,15,111,244 ; movdqa %xmm4,%xmm6
DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,219,183,249,22,0,0 ; pand 0x16f9(%edi),%xmm6
+ DB 102,15,219,183,101,22,0,0 ; pand 0x1665(%edi),%xmm6
DB 102,15,111,236 ; movdqa %xmm4,%xmm5
DB 102,15,113,213,5 ; psrlw $0x5,%xmm5
- DB 102,15,219,175,9,23,0,0 ; pand 0x1709(%edi),%xmm5
- DB 102,15,111,191,25,23,0,0 ; movdqa 0x1719(%edi),%xmm7
+ DB 102,15,219,175,117,22,0,0 ; pand 0x1675(%edi),%xmm5
+ DB 102,15,111,191,133,22,0,0 ; movdqa 0x1685(%edi),%xmm7
DB 102,15,219,252 ; pand %xmm4,%xmm7
DB 102,15,113,212,13 ; psrlw $0xd,%xmm4
DB 102,15,235,230 ; por %xmm6,%xmm4
@@ -70330,7 +55826,7 @@ _sk_load_565_dst_sse2_lowp LABEL PROC
DB 102,15,113,215,2 ; psrlw $0x2,%xmm7
DB 102,15,235,254 ; por %xmm6,%xmm7
DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,40,183,121,22,0,0 ; movaps 0x1679(%edi),%xmm6
+ DB 15,40,183,37,22,0,0 ; movaps 0x1625(%edi),%xmm6
DB 15,41,116,36,64 ; movaps %xmm6,0x40(%esp)
DB 139,125,20 ; mov 0x14(%ebp),%edi
DB 137,124,36,12 ; mov %edi,0xc(%esp)
@@ -70373,15 +55869,15 @@ _sk_store_565_sse2_lowp LABEL PROC
DB 86 ; push %esi
DB 131,236,92 ; sub $0x5c,%esp
DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 232,0,0,0,0 ; call f33e <_sk_store_565_sse2_lowp+0x12>
+ DB 232,0,0,0,0 ; call b722 <_sk_store_565_sse2_lowp+0x12>
DB 95 ; pop %edi
DB 15,40,109,72 ; movaps 0x48(%ebp),%xmm5
DB 102,15,111,208 ; movdqa %xmm0,%xmm2
DB 102,15,113,242,8 ; psllw $0x8,%xmm2
- DB 102,15,219,151,2,22,0,0 ; pand 0x1602(%edi),%xmm2
+ DB 102,15,219,151,110,21,0,0 ; pand 0x156e(%edi),%xmm2
DB 102,15,111,241 ; movdqa %xmm1,%xmm6
DB 102,15,113,246,3 ; psllw $0x3,%xmm6
- DB 102,15,219,183,18,22,0,0 ; pand 0x1612(%edi),%xmm6
+ DB 102,15,219,183,126,21,0,0 ; pand 0x157e(%edi),%xmm6
DB 102,15,235,242 ; por %xmm2,%xmm6
DB 102,15,111,212 ; movdqa %xmm4,%xmm2
DB 102,15,113,210,3 ; psrlw $0x3,%xmm2
@@ -70400,19 +55896,19 @@ _sk_store_565_sse2_lowp LABEL PROC
DB 128,249,6 ; cmp $0x6,%cl
DB 139,117,16 ; mov 0x10(%ebp),%esi
DB 15,40,125,24 ; movaps 0x18(%ebp),%xmm7
- DB 119,22 ; ja f3b6 <_sk_store_565_sse2_lowp+0x8a>
+ DB 119,22 ; ja b79a <_sk_store_565_sse2_lowp+0x8a>
DB 15,182,201 ; movzbl %cl,%ecx
DB 3,188,143,242,0,0,0 ; add 0xf2(%edi,%ecx,4),%edi
DB 255,231 ; jmp *%edi
DB 102,15,126,209 ; movd %xmm2,%ecx
DB 102,137,12,115 ; mov %cx,(%ebx,%esi,2)
- DB 235,59 ; jmp f3f1 <_sk_store_565_sse2_lowp+0xc5>
+ DB 235,59 ; jmp b7d5 <_sk_store_565_sse2_lowp+0xc5>
DB 243,15,127,20,115 ; movdqu %xmm2,(%ebx,%esi,2)
- DB 235,52 ; jmp f3f1 <_sk_store_565_sse2_lowp+0xc5>
+ DB 235,52 ; jmp b7d5 <_sk_store_565_sse2_lowp+0xc5>
DB 102,15,197,202,2 ; pextrw $0x2,%xmm2,%ecx
DB 102,137,76,115,4 ; mov %cx,0x4(%ebx,%esi,2)
DB 102,15,126,20,115 ; movd %xmm2,(%ebx,%esi,2)
- DB 235,35 ; jmp f3f1 <_sk_store_565_sse2_lowp+0xc5>
+ DB 235,35 ; jmp b7d5 <_sk_store_565_sse2_lowp+0xc5>
DB 102,15,197,202,6 ; pextrw $0x6,%xmm2,%ecx
DB 102,137,76,115,12 ; mov %cx,0xc(%ebx,%esi,2)
DB 102,15,197,202,5 ; pextrw $0x5,%xmm2,%ecx
@@ -70472,10 +55968,10 @@ _sk_load_a8_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call f486 <_sk_load_a8_sse2_lowp+0x3a>
+ DB 232,0,0,0,0 ; call b86a <_sk_load_a8_sse2_lowp+0x3a>
DB 95 ; pop %edi
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja f4a8 <_sk_load_a8_sse2_lowp+0x5c>
+ DB 119,28 ; ja b88c <_sk_load_a8_sse2_lowp+0x5c>
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,143,198,0,0,0 ; mov 0xc6(%edi,%ecx,4),%ecx
@@ -70483,10 +55979,10 @@ _sk_load_a8_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 235,90 ; jmp f502 <_sk_load_a8_sse2_lowp+0xb6>
+ DB 235,90 ; jmp b8e6 <_sk_load_a8_sse2_lowp+0xb6>
DB 243,15,126,28,51 ; movq (%ebx,%esi,1),%xmm3
DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 235,79 ; jmp f502 <_sk_load_a8_sse2_lowp+0xb6>
+ DB 235,79 ; jmp b8e6 <_sk_load_a8_sse2_lowp+0xb6>
DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 102,15,196,217,2 ; pinsrw $0x2,%ecx,%xmm3
@@ -70494,7 +55990,7 @@ _sk_load_a8_sse2_lowp LABEL PROC
DB 102,15,110,233 ; movd %ecx,%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 243,15,16,221 ; movss %xmm5,%xmm3
- DB 235,47 ; jmp f502 <_sk_load_a8_sse2_lowp+0xb6>
+ DB 235,47 ; jmp b8e6 <_sk_load_a8_sse2_lowp+0xb6>
DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 102,15,196,217,6 ; pinsrw $0x6,%ecx,%xmm3
@@ -70505,7 +56001,7 @@ _sk_load_a8_sse2_lowp LABEL PROC
DB 102,15,110,44,51 ; movd (%ebx,%esi,1),%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 242,15,16,221 ; movsd %xmm5,%xmm3
- DB 102,15,219,159,10,20,0,0 ; pand 0x140a(%edi),%xmm3
+ DB 102,15,219,159,182,19,0,0 ; pand 0x13b6(%edi),%xmm3
DB 141,72,8 ; lea 0x8(%eax),%ecx
DB 15,41,100,36,64 ; movaps %xmm4,0x40(%esp)
DB 15,41,84,36,48 ; movaps %xmm2,0x30(%esp)
@@ -70558,10 +56054,10 @@ _sk_load_a8_dst_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call f591 <_sk_load_a8_dst_sse2_lowp+0x29>
+ DB 232,0,0,0,0 ; call b975 <_sk_load_a8_dst_sse2_lowp+0x29>
DB 95 ; pop %edi
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja f5b3 <_sk_load_a8_dst_sse2_lowp+0x4b>
+ DB 119,28 ; ja b997 <_sk_load_a8_dst_sse2_lowp+0x4b>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,143,195,0,0,0 ; mov 0xc3(%edi,%ecx,4),%ecx
@@ -70569,10 +56065,10 @@ _sk_load_a8_dst_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 235,90 ; jmp f60d <_sk_load_a8_dst_sse2_lowp+0xa5>
+ DB 235,90 ; jmp b9f1 <_sk_load_a8_dst_sse2_lowp+0xa5>
DB 243,15,126,36,51 ; movq (%ebx,%esi,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 235,79 ; jmp f60d <_sk_load_a8_dst_sse2_lowp+0xa5>
+ DB 235,79 ; jmp b9f1 <_sk_load_a8_dst_sse2_lowp+0xa5>
DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,225,2 ; pinsrw $0x2,%ecx,%xmm4
@@ -70580,7 +56076,7 @@ _sk_load_a8_dst_sse2_lowp LABEL PROC
DB 102,15,110,233 ; movd %ecx,%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,47 ; jmp f60d <_sk_load_a8_dst_sse2_lowp+0xa5>
+ DB 235,47 ; jmp b9f1 <_sk_load_a8_dst_sse2_lowp+0xa5>
DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,225,6 ; pinsrw $0x6,%ecx,%xmm4
@@ -70591,7 +56087,7 @@ _sk_load_a8_dst_sse2_lowp LABEL PROC
DB 102,15,110,44,51 ; movd (%ebx,%esi,1),%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 102,15,219,167,255,18,0,0 ; pand 0x12ff(%edi),%xmm4
+ DB 102,15,219,167,171,18,0,0 ; pand 0x12ab(%edi),%xmm4
DB 141,72,8 ; lea 0x8(%eax),%ecx
DB 102,15,127,100,36,64 ; movdqa %xmm4,0x40(%esp)
DB 102,15,239,228 ; pxor %xmm4,%xmm4
@@ -70646,32 +56142,32 @@ _sk_store_a8_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call f6a9 <_sk_store_a8_sse2_lowp+0x39>
+ DB 232,0,0,0,0 ; call ba8d <_sk_store_a8_sse2_lowp+0x39>
DB 91 ; pop %ebx
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,26 ; ja f6c9 <_sk_store_a8_sse2_lowp+0x59>
+ DB 119,26 ; ja baad <_sk_store_a8_sse2_lowp+0x59>
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,139,223,0,0,0 ; mov 0xdf(%ebx,%ecx,4),%ecx
DB 1,217 ; add %ebx,%ecx
DB 255,225 ; jmp *%ecx
DB 102,15,126,217 ; movd %xmm3,%ecx
DB 136,12,55 ; mov %cl,(%edi,%esi,1)
- DB 233,136,0,0,0 ; jmp f751 <_sk_store_a8_sse2_lowp+0xe1>
- DB 102,15,111,163,231,17,0,0 ; movdqa 0x11e7(%ebx),%xmm4
+ DB 233,136,0,0,0 ; jmp bb35 <_sk_store_a8_sse2_lowp+0xe1>
+ DB 102,15,111,163,147,17,0,0 ; movdqa 0x1193(%ebx),%xmm4
DB 102,15,219,227 ; pand %xmm3,%xmm4
DB 102,15,103,228 ; packuswb %xmm4,%xmm4
DB 102,15,214,36,55 ; movq %xmm4,(%edi,%esi,1)
DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 235,109 ; jmp f751 <_sk_store_a8_sse2_lowp+0xe1>
+ DB 235,109 ; jmp bb35 <_sk_store_a8_sse2_lowp+0xe1>
DB 102,15,197,203,2 ; pextrw $0x2,%xmm3,%ecx
DB 136,76,55,2 ; mov %cl,0x2(%edi,%esi,1)
- DB 102,15,111,163,231,17,0,0 ; movdqa 0x11e7(%ebx),%xmm4
+ DB 102,15,111,163,147,17,0,0 ; movdqa 0x1193(%ebx),%xmm4
DB 102,15,219,227 ; pand %xmm3,%xmm4
DB 102,15,103,228 ; packuswb %xmm4,%xmm4
DB 102,15,126,225 ; movd %xmm4,%ecx
DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
DB 102,137,12,55 ; mov %cx,(%edi,%esi,1)
- DB 235,70 ; jmp f751 <_sk_store_a8_sse2_lowp+0xe1>
+ DB 235,70 ; jmp bb35 <_sk_store_a8_sse2_lowp+0xe1>
DB 102,15,197,203,6 ; pextrw $0x6,%xmm3,%ecx
DB 136,76,55,6 ; mov %cl,0x6(%edi,%esi,1)
DB 102,15,197,203,5 ; pextrw $0x5,%xmm3,%ecx
@@ -70681,7 +56177,7 @@ _sk_store_a8_sse2_lowp LABEL PROC
DB 15,40,254 ; movaps %xmm6,%xmm7
DB 15,40,245 ; movaps %xmm5,%xmm6
DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 102,15,111,163,231,17,0,0 ; movdqa 0x11e7(%ebx),%xmm4
+ DB 102,15,111,163,147,17,0,0 ; movdqa 0x1193(%ebx),%xmm4
DB 102,15,219,227 ; pand %xmm3,%xmm4
DB 102,15,103,228 ; packuswb %xmm4,%xmm4
DB 102,15,126,36,55 ; movd %xmm4,(%edi,%esi,1)
@@ -70715,7 +56211,7 @@ _sk_store_a8_sse2_lowp LABEL PROC
DB 0,0 ; add %al,(%eax)
DB 0,125,0 ; add %bh,0x0(%ebp)
DB 0,0 ; add %al,(%eax)
- DB 116,0 ; je f79a <_sk_store_a8_sse2_lowp+0x12a>
+ DB 116,0 ; je bb7e <_sk_store_a8_sse2_lowp+0x12a>
DB 0,0 ; add %al,(%eax)
DB 107,0,0 ; imul $0x0,(%eax),%eax
DB 0,98,0 ; add %ah,0x0(%edx)
@@ -70743,10 +56239,10 @@ _sk_load_g8_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call f7dd <_sk_load_g8_sse2_lowp+0x39>
+ DB 232,0,0,0,0 ; call bbc1 <_sk_load_g8_sse2_lowp+0x39>
DB 94 ; pop %esi
DB 139,125,16 ; mov 0x10(%ebp),%edi
- DB 119,28 ; ja f7ff <_sk_load_g8_sse2_lowp+0x5b>
+ DB 119,28 ; ja bbe3 <_sk_load_g8_sse2_lowp+0x5b>
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,142,199,0,0,0 ; mov 0xc7(%esi,%ecx,4),%ecx
@@ -70754,10 +56250,10 @@ _sk_load_g8_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 15,182,12,59 ; movzbl (%ebx,%edi,1),%ecx
DB 102,15,110,193 ; movd %ecx,%xmm0
- DB 235,90 ; jmp f859 <_sk_load_g8_sse2_lowp+0xb5>
+ DB 235,90 ; jmp bc3d <_sk_load_g8_sse2_lowp+0xb5>
DB 243,15,126,4,59 ; movq (%ebx,%edi,1),%xmm0
DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 235,79 ; jmp f859 <_sk_load_g8_sse2_lowp+0xb5>
+ DB 235,79 ; jmp bc3d <_sk_load_g8_sse2_lowp+0xb5>
DB 15,182,76,59,2 ; movzbl 0x2(%ebx,%edi,1),%ecx
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,196,193,2 ; pinsrw $0x2,%ecx,%xmm0
@@ -70765,7 +56261,7 @@ _sk_load_g8_sse2_lowp LABEL PROC
DB 102,15,110,233 ; movd %ecx,%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 243,15,16,197 ; movss %xmm5,%xmm0
- DB 235,47 ; jmp f859 <_sk_load_g8_sse2_lowp+0xb5>
+ DB 235,47 ; jmp bc3d <_sk_load_g8_sse2_lowp+0xb5>
DB 15,182,76,59,6 ; movzbl 0x6(%ebx,%edi,1),%ecx
DB 102,15,239,192 ; pxor %xmm0,%xmm0
DB 102,15,196,193,6 ; pinsrw $0x6,%ecx,%xmm0
@@ -70776,7 +56272,7 @@ _sk_load_g8_sse2_lowp LABEL PROC
DB 102,15,110,44,59 ; movd (%ebx,%edi,1),%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 242,15,16,197 ; movsd %xmm5,%xmm0
- DB 102,15,219,134,179,16,0,0 ; pand 0x10b3(%esi),%xmm0
+ DB 102,15,219,134,95,16,0,0 ; pand 0x105f(%esi),%xmm0
DB 141,72,8 ; lea 0x8(%eax),%ecx
DB 15,41,100,36,64 ; movaps %xmm4,0x40(%esp)
DB 15,41,92,36,48 ; movaps %xmm3,0x30(%esp)
@@ -70787,7 +56283,7 @@ _sk_load_g8_sse2_lowp LABEL PROC
DB 137,124,36,8 ; mov %edi,0x8(%esp)
DB 137,76,36,4 ; mov %ecx,0x4(%esp)
DB 137,20,36 ; mov %edx,(%esp)
- DB 15,40,158,179,16,0,0 ; movaps 0x10b3(%esi),%xmm3
+ DB 15,40,158,95,16,0,0 ; movaps 0x105f(%esi),%xmm3
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
DB 102,15,111,208 ; movdqa %xmm0,%xmm2
DB 255,80,4 ; call *0x4(%eax)
@@ -70828,10 +56324,10 @@ _sk_load_g8_dst_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call f8e9 <_sk_load_g8_dst_sse2_lowp+0x29>
+ DB 232,0,0,0,0 ; call bccd <_sk_load_g8_dst_sse2_lowp+0x29>
DB 95 ; pop %edi
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja f90b <_sk_load_g8_dst_sse2_lowp+0x4b>
+ DB 119,28 ; ja bcef <_sk_load_g8_dst_sse2_lowp+0x4b>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,143,195,0,0,0 ; mov 0xc3(%edi,%ecx,4),%ecx
@@ -70839,10 +56335,10 @@ _sk_load_g8_dst_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 235,90 ; jmp f965 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ DB 235,90 ; jmp bd49 <_sk_load_g8_dst_sse2_lowp+0xa5>
DB 243,15,126,36,51 ; movq (%ebx,%esi,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 235,79 ; jmp f965 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ DB 235,79 ; jmp bd49 <_sk_load_g8_dst_sse2_lowp+0xa5>
DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,225,2 ; pinsrw $0x2,%ecx,%xmm4
@@ -70850,7 +56346,7 @@ _sk_load_g8_dst_sse2_lowp LABEL PROC
DB 102,15,110,233 ; movd %ecx,%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,47 ; jmp f965 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ DB 235,47 ; jmp bd49 <_sk_load_g8_dst_sse2_lowp+0xa5>
DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,225,6 ; pinsrw $0x6,%ecx,%xmm4
@@ -70861,9 +56357,9 @@ _sk_load_g8_dst_sse2_lowp LABEL PROC
DB 102,15,110,44,51 ; movd (%ebx,%esi,1),%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 102,15,219,167,167,15,0,0 ; pand 0xfa7(%edi),%xmm4
+ DB 102,15,219,167,83,15,0,0 ; pand 0xf53(%edi),%xmm4
DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,40,175,167,15,0,0 ; movaps 0xfa7(%edi),%xmm5
+ DB 15,40,175,83,15,0,0 ; movaps 0xf53(%edi),%xmm5
DB 15,41,108,36,64 ; movaps %xmm5,0x40(%esp)
DB 102,15,127,100,36,48 ; movdqa %xmm4,0x30(%esp)
DB 102,15,127,100,36,32 ; movdqa %xmm4,0x20(%esp)
@@ -70901,15 +56397,15 @@ _sk_scale_1_float_sse2_lowp LABEL PROC
DB 87 ; push %edi
DB 86 ; push %esi
DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call f9d5 <_sk_scale_1_float_sse2_lowp+0xd>
+ DB 232,0,0,0,0 ; call bdb9 <_sk_scale_1_float_sse2_lowp+0xd>
DB 94 ; pop %esi
DB 139,69,8 ; mov 0x8(%ebp),%eax
DB 139,85,16 ; mov 0x10(%ebp),%edx
DB 139,77,12 ; mov 0xc(%ebp),%ecx
DB 139,57 ; mov (%ecx),%edi
DB 243,15,16,39 ; movss (%edi),%xmm4
- DB 243,15,89,166,143,15,0,0 ; mulss 0xf8f(%esi),%xmm4
- DB 243,15,88,166,139,15,0,0 ; addss 0xf8b(%esi),%xmm4
+ DB 243,15,89,166,251,14,0,0 ; mulss 0xefb(%esi),%xmm4
+ DB 243,15,88,166,247,14,0,0 ; addss 0xef7(%esi),%xmm4
DB 243,15,44,252 ; cvttss2si %xmm4,%edi
DB 102,15,110,239 ; movd %edi,%xmm5
DB 139,125,20 ; mov 0x14(%ebp),%edi
@@ -70922,7 +56418,7 @@ _sk_scale_1_float_sse2_lowp LABEL PROC
DB 102,15,213,205 ; pmullw %xmm5,%xmm1
DB 102,15,213,213 ; pmullw %xmm5,%xmm2
DB 102,15,213,221 ; pmullw %xmm5,%xmm3
- DB 102,15,111,174,187,14,0,0 ; movdqa 0xebb(%esi),%xmm5
+ DB 102,15,111,174,103,14,0,0 ; movdqa 0xe67(%esi),%xmm5
DB 102,15,253,197 ; paddw %xmm5,%xmm0
DB 102,15,253,205 ; paddw %xmm5,%xmm1
DB 102,15,253,213 ; paddw %xmm5,%xmm2
@@ -70968,10 +56464,10 @@ _sk_scale_u8_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call fab7 <_sk_scale_u8_sse2_lowp+0x31>
+ DB 232,0,0,0,0 ; call be9b <_sk_scale_u8_sse2_lowp+0x31>
DB 95 ; pop %edi
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja fad9 <_sk_scale_u8_sse2_lowp+0x53>
+ DB 119,28 ; ja bebd <_sk_scale_u8_sse2_lowp+0x53>
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,143,1,1,0,0 ; mov 0x101(%edi,%ecx,4),%ecx
@@ -70979,10 +56475,10 @@ _sk_scale_u8_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 235,90 ; jmp fb33 <_sk_scale_u8_sse2_lowp+0xad>
+ DB 235,90 ; jmp bf17 <_sk_scale_u8_sse2_lowp+0xad>
DB 243,15,126,36,51 ; movq (%ebx,%esi,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 235,79 ; jmp fb33 <_sk_scale_u8_sse2_lowp+0xad>
+ DB 235,79 ; jmp bf17 <_sk_scale_u8_sse2_lowp+0xad>
DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,225,2 ; pinsrw $0x2,%ecx,%xmm4
@@ -70990,7 +56486,7 @@ _sk_scale_u8_sse2_lowp LABEL PROC
DB 102,15,110,233 ; movd %ecx,%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,47 ; jmp fb33 <_sk_scale_u8_sse2_lowp+0xad>
+ DB 235,47 ; jmp bf17 <_sk_scale_u8_sse2_lowp+0xad>
DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
DB 102,15,239,228 ; pxor %xmm4,%xmm4
DB 102,15,196,225,6 ; pinsrw $0x6,%ecx,%xmm4
@@ -71001,9 +56497,9 @@ _sk_scale_u8_sse2_lowp LABEL PROC
DB 102,15,110,44,51 ; movd (%ebx,%esi,1),%xmm5
DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 102,15,219,167,217,13,0,0 ; pand 0xdd9(%edi),%xmm4
+ DB 102,15,219,167,133,13,0,0 ; pand 0xd85(%edi),%xmm4
DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,111,175,217,13,0,0 ; movdqa 0xdd9(%edi),%xmm5
+ DB 102,15,111,175,133,13,0,0 ; movdqa 0xd85(%edi),%xmm5
DB 102,15,253,197 ; paddw %xmm5,%xmm0
DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
DB 102,15,213,204 ; pmullw %xmm4,%xmm1
@@ -71060,19 +56556,19 @@ _sk_lerp_1_float_sse2_lowp LABEL PROC
DB 102,15,111,218 ; movdqa %xmm2,%xmm3
DB 102,15,111,209 ; movdqa %xmm1,%xmm2
DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call fbf1 <_sk_lerp_1_float_sse2_lowp+0x1d>
+ DB 232,0,0,0,0 ; call bfd5 <_sk_lerp_1_float_sse2_lowp+0x1d>
DB 89 ; pop %ecx
DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
DB 139,69,12 ; mov 0xc(%ebp),%eax
DB 139,16 ; mov (%eax),%edx
DB 243,15,16,50 ; movss (%edx),%xmm6
- DB 243,15,89,177,115,13,0,0 ; mulss 0xd73(%ecx),%xmm6
- DB 243,15,88,177,111,13,0,0 ; addss 0xd6f(%ecx),%xmm6
+ DB 243,15,89,177,223,12,0,0 ; mulss 0xcdf(%ecx),%xmm6
+ DB 243,15,88,177,219,12,0,0 ; addss 0xcdb(%ecx),%xmm6
DB 243,15,44,214 ; cvttss2si %xmm6,%edx
DB 102,15,110,242 ; movd %edx,%xmm6
DB 242,15,112,246,0 ; pshuflw $0x0,%xmm6,%xmm6
DB 102,15,112,246,80 ; pshufd $0x50,%xmm6,%xmm6
- DB 102,15,111,129,159,12,0,0 ; movdqa 0xc9f(%ecx),%xmm0
+ DB 102,15,111,129,75,12,0,0 ; movdqa 0xc4b(%ecx),%xmm0
DB 102,15,213,206 ; pmullw %xmm6,%xmm1
DB 102,15,253,200 ; paddw %xmm0,%xmm1
DB 102,15,213,214 ; pmullw %xmm6,%xmm2
@@ -71142,10 +56638,10 @@ _sk_lerp_u8_sse2_lowp LABEL PROC
DB 128,225,7 ; and $0x7,%cl
DB 254,201 ; dec %cl
DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call fd17 <_sk_lerp_u8_sse2_lowp+0x2e>
+ DB 232,0,0,0,0 ; call c0fb <_sk_lerp_u8_sse2_lowp+0x2e>
DB 95 ; pop %edi
DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja fd39 <_sk_lerp_u8_sse2_lowp+0x50>
+ DB 119,28 ; ja c11d <_sk_lerp_u8_sse2_lowp+0x50>
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 15,182,201 ; movzbl %cl,%ecx
DB 139,140,143,73,1,0,0 ; mov 0x149(%edi,%ecx,4),%ecx
@@ -71153,10 +56649,10 @@ _sk_lerp_u8_sse2_lowp LABEL PROC
DB 255,225 ; jmp *%ecx
DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 235,90 ; jmp fd93 <_sk_lerp_u8_sse2_lowp+0xaa>
+ DB 235,90 ; jmp c177 <_sk_lerp_u8_sse2_lowp+0xaa>
DB 243,15,126,28,51 ; movq (%ebx,%esi,1),%xmm3
DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 235,79 ; jmp fd93 <_sk_lerp_u8_sse2_lowp+0xaa>
+ DB 235,79 ; jmp c177 <_sk_lerp_u8_sse2_lowp+0xaa>
DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 102,15,196,217,2 ; pinsrw $0x2,%ecx,%xmm3
@@ -71164,7 +56660,7 @@ _sk_lerp_u8_sse2_lowp LABEL PROC
DB 102,15,110,225 ; movd %ecx,%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
DB 243,15,16,220 ; movss %xmm4,%xmm3
- DB 235,47 ; jmp fd93 <_sk_lerp_u8_sse2_lowp+0xaa>
+ DB 235,47 ; jmp c177 <_sk_lerp_u8_sse2_lowp+0xaa>
DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 102,15,196,217,6 ; pinsrw $0x6,%ecx,%xmm3
@@ -71175,8 +56671,8 @@ _sk_lerp_u8_sse2_lowp LABEL PROC
DB 102,15,110,36,51 ; movd (%ebx,%esi,1),%xmm4
DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
DB 242,15,16,220 ; movsd %xmm4,%xmm3
- DB 102,15,219,159,121,11,0,0 ; pand 0xb79(%edi),%xmm3
- DB 102,15,111,183,121,11,0,0 ; movdqa 0xb79(%edi),%xmm6
+ DB 102,15,219,159,37,11,0,0 ; pand 0xb25(%edi),%xmm3
+ DB 102,15,111,183,37,11,0,0 ; movdqa 0xb25(%edi),%xmm6
DB 102,15,111,227 ; movdqa %xmm3,%xmm4
DB 102,15,239,230 ; pxor %xmm6,%xmm4
DB 102,15,111,252 ; movdqa %xmm4,%xmm7
@@ -71262,11 +56758,11 @@ _sk_srcover_rgba_8888_sse2_lowp LABEL PROC
DB 128,227,7 ; and $0x7,%bl
DB 254,203 ; dec %bl
DB 128,251,6 ; cmp $0x6,%bl
- DB 232,0,0,0,0 ; call febb <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ DB 232,0,0,0,0 ; call c29f <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
DB 89 ; pop %ecx
DB 139,117,16 ; mov 0x10(%ebp),%esi
DB 15,182,211 ; movzbl %bl,%edx
- DB 119,29 ; ja fee1 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ DB 119,29 ; ja c2c5 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
DB 102,15,239,219 ; pxor %xmm3,%xmm3
DB 139,132,145,77,2,0,0 ; mov 0x24d(%ecx,%edx,4),%eax
DB 1,200 ; add %ecx,%eax
@@ -71274,14 +56770,14 @@ _sk_srcover_rgba_8888_sse2_lowp LABEL PROC
DB 255,224 ; jmp *%eax
DB 243,15,16,52,183 ; movss (%edi,%esi,4),%xmm6
DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 235,73 ; jmp ff2a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ DB 235,73 ; jmp c30e <_sk_srcover_rgba_8888_sse2_lowp+0xae>
DB 102,15,16,52,183 ; movupd (%edi,%esi,4),%xmm6
DB 15,16,92,183,16 ; movups 0x10(%edi,%esi,4),%xmm3
- DB 235,61 ; jmp ff2a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ DB 235,61 ; jmp c30e <_sk_srcover_rgba_8888_sse2_lowp+0xae>
DB 102,15,110,68,183,8 ; movd 0x8(%edi,%esi,4),%xmm0
DB 102,15,112,240,69 ; pshufd $0x45,%xmm0,%xmm6
DB 102,15,18,52,183 ; movlpd (%edi,%esi,4),%xmm6
- DB 235,43 ; jmp ff2a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ DB 235,43 ; jmp c30e <_sk_srcover_rgba_8888_sse2_lowp+0xae>
DB 102,15,110,68,183,24 ; movd 0x18(%edi,%esi,4),%xmm0
DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
DB 243,15,16,68,183,20 ; movss 0x14(%edi,%esi,4),%xmm0
@@ -71307,7 +56803,7 @@ _sk_srcover_rgba_8888_sse2_lowp LABEL PROC
DB 102,15,114,243,16 ; pslld $0x10,%xmm3
DB 102,15,114,227,16 ; psrad $0x10,%xmm3
DB 102,15,107,243 ; packssdw %xmm3,%xmm6
- DB 102,15,111,153,213,9,0,0 ; movdqa 0x9d5(%ecx),%xmm3
+ DB 102,15,111,153,129,9,0,0 ; movdqa 0x981(%ecx),%xmm3
DB 102,15,114,208,16 ; psrld $0x10,%xmm0
DB 102,15,114,210,16 ; psrld $0x10,%xmm2
DB 102,15,114,242,16 ; pslld $0x10,%xmm2
@@ -71359,18 +56855,18 @@ _sk_srcover_rgba_8888_sse2_lowp LABEL PROC
DB 102,15,105,220 ; punpckhwd %xmm4,%xmm3
DB 102,15,235,222 ; por %xmm6,%xmm3
DB 128,251,6 ; cmp $0x6,%bl
- DB 119,16 ; ja 1006b <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ DB 119,16 ; ja c44f <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
DB 3,140,145,105,2,0,0 ; add 0x269(%ecx,%edx,4),%ecx
DB 255,225 ; jmp *%ecx
DB 102,15,126,4,183 ; movd %xmm0,(%edi,%esi,4)
- DB 235,64 ; jmp 100ab <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ DB 235,64 ; jmp c48f <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
DB 243,15,127,4,183 ; movdqu %xmm0,(%edi,%esi,4)
DB 243,15,127,92,183,16 ; movdqu %xmm3,0x10(%edi,%esi,4)
- DB 235,51 ; jmp 100ab <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ DB 235,51 ; jmp c48f <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
DB 102,15,126,84,183,8 ; movd %xmm2,0x8(%edi,%esi,4)
DB 102,15,214,4,183 ; movq %xmm0,(%edi,%esi,4)
- DB 235,33 ; jmp 100ab <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ DB 235,33 ; jmp c48f <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
DB 102,15,112,211,78 ; pshufd $0x4e,%xmm3,%xmm2
DB 102,15,126,84,183,24 ; movd %xmm2,0x18(%edi,%esi,4)
DB 102,15,112,211,229 ; pshufd $0xe5,%xmm3,%xmm2
@@ -71499,11 +56995,11 @@ ALIGN 16
DB 0,128,191,0,0,128 ; add %al,-0x7fffff41(%eax)
DB 191,0,0,224,64 ; mov $0x40e00000,%edi
DB 0,0 ; add %al,(%eax)
- DB 224,64 ; loopne 10228 <.literal16+0xe8>
+ DB 224,64 ; loopne c618 <.literal16+0xe8>
DB 0,0 ; add %al,(%eax)
- DB 224,64 ; loopne 1022c <.literal16+0xec>
+ DB 224,64 ; loopne c61c <.literal16+0xec>
DB 0,0 ; add %al,(%eax)
- DB 224,64 ; loopne 10230 <.literal16+0xf0>
+ DB 224,64 ; loopne c620 <.literal16+0xf0>
DB 154,153,153,62,154,153,153 ; lcall $0x9999,$0x9a3e9999
DB 62,154,153,153,62,154,153,153 ; ds lcall $0x9999,$0x9a3e9999
DB 62,61,10,23,63,61 ; ds cmp $0x3d3f170a,%eax
@@ -71514,16 +57010,16 @@ ALIGN 16
DB 63 ; aas
DB 174 ; scas %es:(%edi),%al
DB 71 ; inc %edi
- DB 225,61 ; loope 10251 <.literal16+0x111>
+ DB 225,61 ; loope c641 <.literal16+0x111>
DB 174 ; scas %es:(%edi),%al
DB 71 ; inc %edi
- DB 225,61 ; loope 10255 <.literal16+0x115>
+ DB 225,61 ; loope c645 <.literal16+0x115>
DB 174 ; scas %es:(%edi),%al
DB 71 ; inc %edi
- DB 225,61 ; loope 10259 <.literal16+0x119>
+ DB 225,61 ; loope c649 <.literal16+0x119>
DB 174 ; scas %es:(%edi),%al
DB 71 ; inc %edi
- DB 225,61 ; loope 1025d <.literal16+0x11d>
+ DB 225,61 ; loope c64d <.literal16+0x11d>
DB 255,0 ; incl (%eax)
DB 0,0 ; add %al,(%eax)
DB 255,0 ; incl (%eax)
@@ -71533,13 +57029,13 @@ ALIGN 16
DB 255,0 ; incl (%eax)
DB 0,0 ; add %al,(%eax)
DB 0,0 ; add %al,(%eax)
- DB 127,67 ; jg 10277 <.literal16+0x137>
+ DB 127,67 ; jg c667 <.literal16+0x137>
DB 0,0 ; add %al,(%eax)
- DB 127,67 ; jg 1027b <.literal16+0x13b>
+ DB 127,67 ; jg c66b <.literal16+0x13b>
DB 0,0 ; add %al,(%eax)
- DB 127,67 ; jg 1027f <.literal16+0x13f>
+ DB 127,67 ; jg c66f <.literal16+0x13f>
DB 0,0 ; add %al,(%eax)
- DB 127,67 ; jg 10283 <.literal16+0x143>
+ DB 127,67 ; jg c673 <.literal16+0x143>
DB 145 ; xchg %eax,%ecx
DB 131,158,61,145,131,158,61 ; sbbl $0x3d,-0x617c6ec3(%esi)
DB 145 ; xchg %eax,%ecx
@@ -71690,13 +57186,13 @@ ALIGN 16
DB 132,55 ; test %dh,(%edi)
DB 8,33 ; or %ah,(%ecx)
DB 132,55 ; test %dh,(%edi)
- DB 224,7 ; loopne 10389 <.literal16+0x249>
+ DB 224,7 ; loopne c779 <.literal16+0x249>
DB 0,0 ; add %al,(%eax)
- DB 224,7 ; loopne 1038d <.literal16+0x24d>
+ DB 224,7 ; loopne c77d <.literal16+0x24d>
DB 0,0 ; add %al,(%eax)
- DB 224,7 ; loopne 10391 <.literal16+0x251>
+ DB 224,7 ; loopne c781 <.literal16+0x251>
DB 0,0 ; add %al,(%eax)
- DB 224,7 ; loopne 10395 <.literal16+0x255>
+ DB 224,7 ; loopne c785 <.literal16+0x255>
DB 0,0 ; add %al,(%eax)
DB 33,8 ; and %ecx,(%eax)
DB 2,58 ; add (%edx),%bh
@@ -71745,17 +57241,17 @@ ALIGN 16
DB 0,0 ; add %al,(%eax)
DB 52,255 ; xor $0xff,%al
DB 255 ; (bad)
- DB 127,0 ; jg 103f4 <.literal16+0x2b4>
+ DB 127,0 ; jg c7e4 <.literal16+0x2b4>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,0 ; jg 103f8 <.literal16+0x2b8>
+ DB 127,0 ; jg c7e8 <.literal16+0x2b8>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,0 ; jg 103fc <.literal16+0x2bc>
+ DB 127,0 ; jg c7ec <.literal16+0x2bc>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,0 ; jg 10400 <.literal16+0x2c0>
- DB 119,115 ; ja 10475 <.literal16+0x335>
+ DB 127,0 ; jg c7f0 <.literal16+0x2c0>
+ DB 119,115 ; ja c865 <.literal16+0x335>
DB 248 ; clc
DB 194,119,115 ; ret $0x7377
DB 248 ; clc
@@ -71766,7 +57262,7 @@ ALIGN 16
DB 194,117,191 ; ret $0xbf75
DB 191,63,117,191,191 ; mov $0xbfbf753f,%edi
DB 63 ; aas
- DB 117,191 ; jne 103d9 <.literal16+0x299>
+ DB 117,191 ; jne c7c9 <.literal16+0x299>
DB 191,63,117,191,191 ; mov $0xbfbf753f,%edi
DB 63 ; aas
DB 249 ; stc
@@ -71782,7 +57278,7 @@ ALIGN 16
DB 68 ; inc %esp
DB 180,62 ; mov $0x3e,%ah
DB 163,233,220,63,163 ; mov %eax,0xa33fdce9
- DB 233,220,63,163,233 ; jmp e9a44416 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a3459a>
+ DB 233,220,63,163,233 ; jmp e9a40806 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a345a6>
DB 220,63 ; fdivrl (%edi)
DB 163,233,220,63,81 ; mov %eax,0x513fdce9
DB 140,242 ; mov %?,%edx
@@ -71878,16 +57374,16 @@ ALIGN 16
DB 128,3,62 ; addb $0x3e,(%ebx)
DB 31 ; pop %ds
DB 215 ; xlat %ds:(%ebx)
- DB 118,63 ; jbe 10563 <.literal16+0x423>
+ DB 118,63 ; jbe c953 <.literal16+0x423>
DB 31 ; pop %ds
DB 215 ; xlat %ds:(%ebx)
- DB 118,63 ; jbe 10567 <.literal16+0x427>
+ DB 118,63 ; jbe c957 <.literal16+0x427>
DB 31 ; pop %ds
DB 215 ; xlat %ds:(%ebx)
- DB 118,63 ; jbe 1056b <.literal16+0x42b>
+ DB 118,63 ; jbe c95b <.literal16+0x42b>
DB 31 ; pop %ds
DB 215 ; xlat %ds:(%ebx)
- DB 118,63 ; jbe 1056f <.literal16+0x42f>
+ DB 118,63 ; jbe c95f <.literal16+0x42f>
DB 246,64,83,63 ; testb $0x3f,0x53(%eax)
DB 246,64,83,63 ; testb $0x3f,0x53(%eax)
DB 246,64,83,63 ; testb $0x3f,0x53(%eax)
@@ -71913,13 +57409,13 @@ ALIGN 16
DB 248 ; clc
DB 65 ; inc %ecx
DB 0,0 ; add %al,(%eax)
- DB 124,66 ; jl 105a6 <.literal16+0x466>
+ DB 124,66 ; jl c996 <.literal16+0x466>
DB 0,0 ; add %al,(%eax)
- DB 124,66 ; jl 105aa <.literal16+0x46a>
+ DB 124,66 ; jl c99a <.literal16+0x46a>
DB 0,0 ; add %al,(%eax)
- DB 124,66 ; jl 105ae <.literal16+0x46e>
+ DB 124,66 ; jl c99e <.literal16+0x46e>
DB 0,0 ; add %al,(%eax)
- DB 124,66 ; jl 105b2 <.literal16+0x472>
+ DB 124,66 ; jl c9a2 <.literal16+0x472>
DB 0,240 ; add %dh,%al
DB 0,0 ; add %al,(%eax)
DB 0,240 ; add %dh,%al
@@ -71965,25 +57461,25 @@ ALIGN 16
DB 136,136,61,137,136,136 ; mov %cl,-0x777776c3(%eax)
DB 61,137,136,136,61 ; cmp $0x3d888889,%eax
DB 0,0 ; add %al,(%eax)
- DB 112,65 ; jo 10635 <.literal16+0x4f5>
+ DB 112,65 ; jo ca25 <.literal16+0x4f5>
DB 0,0 ; add %al,(%eax)
- DB 112,65 ; jo 10639 <.literal16+0x4f9>
+ DB 112,65 ; jo ca29 <.literal16+0x4f9>
DB 0,0 ; add %al,(%eax)
- DB 112,65 ; jo 1063d <.literal16+0x4fd>
+ DB 112,65 ; jo ca2d <.literal16+0x4fd>
DB 0,0 ; add %al,(%eax)
- DB 112,65 ; jo 10641 <.literal16+0x501>
+ DB 112,65 ; jo ca31 <.literal16+0x501>
DB 0,128,0,0,0,128 ; add %al,-0x80000000(%eax)
DB 0,0 ; add %al,(%eax)
DB 0,128,0,0,0,128 ; add %al,-0x80000000(%eax)
DB 0,0 ; add %al,(%eax)
DB 255 ; (bad)
- DB 127,0 ; jg 10613 <.literal16+0x4d3>
+ DB 127,0 ; jg ca03 <.literal16+0x4d3>
DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 10617 <.literal16+0x4d7>
+ DB 127,0 ; jg ca07 <.literal16+0x4d7>
DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 1061b <.literal16+0x4db>
+ DB 127,0 ; jg ca0b <.literal16+0x4db>
DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 1061f <.literal16+0x4df>
+ DB 127,0 ; jg ca0f <.literal16+0x4df>
DB 0,0 ; add %al,(%eax)
DB 4,0 ; add $0x0,%al
DB 0,0 ; add %al,(%eax)
@@ -72009,13 +57505,13 @@ ALIGN 16
DB 255 ; (bad)
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,255 ; jg 10658 <.literal16+0x518>
+ DB 127,255 ; jg ca48 <.literal16+0x518>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,255 ; jg 1065c <.literal16+0x51c>
+ DB 127,255 ; jg ca4c <.literal16+0x51c>
DB 255 ; (bad)
DB 255 ; (bad)
- DB 127,0 ; jg 10661 <.literal16+0x521>
+ DB 127,0 ; jg ca51 <.literal16+0x521>
DB 0,128,56,0,0,128 ; add %al,-0x7fffffc8(%eax)
DB 56,0 ; cmp %al,(%eax)
DB 0,128,56,0,0,128 ; add %al,-0x7fffffc8(%eax)
@@ -72029,13 +57525,13 @@ ALIGN 16
DB 0,255 ; add %bh,%bh
DB 255,0 ; incl (%eax)
DB 255 ; (bad)
- DB 127,71 ; jg 106cb <.literal16+0x58b>
+ DB 127,71 ; jg cabb <.literal16+0x58b>
DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 106cf <.literal16+0x58f>
+ DB 127,71 ; jg cabf <.literal16+0x58f>
DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 106d3 <.literal16+0x593>
+ DB 127,71 ; jg cac3 <.literal16+0x593>
DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 106d7 <.literal16+0x597>
+ DB 127,71 ; jg cac7 <.literal16+0x597>
DB 208 ; (bad)
DB 179,89 ; mov $0x59,%bl
DB 62,208 ; ds (bad)
@@ -72088,7 +57584,7 @@ ALIGN 16
DB 192,45,16,17,192,45,16 ; shrb $0x10,0x2dc01110
DB 17,192 ; adc %eax,%eax
DB 45,16,17,192,18 ; sub $0x12c01110,%eax
- DB 120,57 ; js 1073c <.literal16+0x5fc>
+ DB 120,57 ; js cb2c <.literal16+0x5fc>
DB 64 ; inc %eax
DB 18,120,57 ; adc 0x39(%eax),%bh
DB 64 ; inc %eax
@@ -72159,13 +57655,13 @@ ALIGN 16
DB 192,191,0,0,192,191,0 ; sarb $0x0,-0x40400000(%edi)
DB 0,192 ; add %al,%al
DB 191,0,0,192,191 ; mov $0xbfc00000,%edi
- DB 114,28 ; jb 107ee <.literal16+0x6ae>
+ DB 114,28 ; jb cbde <.literal16+0x6ae>
DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 107f2 <.literal16+0x6b2>
+ DB 62,114,28 ; jb,pt cbe2 <.literal16+0x6b2>
DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 107f6 <.literal16+0x6b6>
+ DB 62,114,28 ; jb,pt cbe6 <.literal16+0x6b6>
DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 107fa <.literal16+0x6ba>
+ DB 62,114,28 ; jb,pt cbea <.literal16+0x6ba>
DB 199 ; (bad)
DB 62,85 ; ds push %ebp
DB 85 ; push %ebp
@@ -72186,13 +57682,13 @@ ALIGN 16
DB 57,142,99,61,57,142 ; cmp %ecx,-0x71c6c29d(%esi)
DB 99,61,57,142,99,61 ; arpl %di,0x3d638e39
DB 57,142,99,61,114,249 ; cmp %ecx,-0x68dc29d(%esi)
- DB 127,63 ; jg 10853 <.literal16+0x713>
- DB 114,249 ; jb 1080f <.literal16+0x6cf>
- DB 127,63 ; jg 10857 <.literal16+0x717>
- DB 114,249 ; jb 10813 <.literal16+0x6d3>
- DB 127,63 ; jg 1085b <.literal16+0x71b>
- DB 114,249 ; jb 10817 <.literal16+0x6d7>
- DB 127,63 ; jg 1085f <.literal16+0x71f>
+ DB 127,63 ; jg cc43 <.literal16+0x713>
+ DB 114,249 ; jb cbff <.literal16+0x6cf>
+ DB 127,63 ; jg cc47 <.literal16+0x717>
+ DB 114,249 ; jb cc03 <.literal16+0x6d3>
+ DB 127,63 ; jg cc4b <.literal16+0x71b>
+ DB 114,249 ; jb cc07 <.literal16+0x6d7>
+ DB 127,63 ; jg cc4f <.literal16+0x71f>
DB 3,0 ; add (%eax),%eax
DB 0,0 ; add %al,(%eax)
DB 3,0 ; add (%eax),%eax
@@ -72201,93 +57697,16 @@ ALIGN 16
DB 0,0 ; add %al,(%eax)
DB 3,0 ; add (%eax),%eax
DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%eax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%eax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%eax)
- DB 0,255 ; add %bh,%bh
- DB 248 ; clc
- DB 0,0 ; add %al,(%eax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 252 ; cld
- DB 0,0 ; add %al,(%eax)
- DB 0,252 ; add %bh,%ah
- DB 0,0 ; add %al,(%eax)
- DB 0,252 ; add %bh,%ah
- DB 0,0 ; add %al,(%eax)
- DB 0,252 ; add %bh,%ah
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 248 ; clc
- DB 0,0 ; add %al,(%eax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,248 ; add %bh,%al
- DB 0,7 ; add %al,(%edi)
- DB 0,7 ; add %al,(%edi)
- DB 0,7 ; add %al,(%edi)
- DB 0,7 ; add %al,(%edi)
- DB 0,7 ; add %al,(%edi)
- DB 0,7 ; add %al,(%edi)
- DB 0,7 ; add %al,(%edi)
- DB 0,7 ; add %al,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 12,0 ; or $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 12,0 ; or $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 12,0 ; or $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 12,0 ; or $0x0,%al
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,1 ; add %al,(%ecx)
- DB 1,1 ; add %eax,(%ecx)
- DB 0,1 ; add %al,(%ecx)
- DB 1,1 ; add %eax,(%ecx)
- DB 0,1 ; add %al,(%ecx)
- DB 1,1 ; add %eax,(%ecx)
- DB 0,1 ; add %al,(%ecx)
- DB 1,1 ; add %eax,(%ecx)
- DB 0,255 ; add %bh,%bh
- DB 255 ; (bad)
DB 255,0 ; incl (%eax)
- DB 255 ; (bad)
- DB 255 ; (bad)
DB 255,0 ; incl (%eax)
- DB 255 ; (bad)
- DB 255 ; (bad)
DB 255,0 ; incl (%eax)
- DB 255 ; (bad)
- DB 255 ; (bad)
DB 255,0 ; incl (%eax)
- DB 127,0 ; jg 108c2 <.literal16+0x782>
- DB 127,0 ; jg 108c4 <.literal16+0x784>
- DB 127,0 ; jg 108c6 <.literal16+0x786>
- DB 127,0 ; jg 108c8 <.literal16+0x788>
- DB 127,0 ; jg 108ca <.literal16+0x78a>
- DB 127,0 ; jg 108cc <.literal16+0x78c>
- DB 127,0 ; jg 108ce <.literal16+0x78e>
- DB 127,0 ; jg 108d0 <.literal16+0x790>
- DB 129,128,129,128,129,128,129,128,129,128; addl $0x80818081,-0x7f7e7f7f(%eax)
- DB 129,128,129,128,129,128,254,0,254,0 ; addl $0xfe00fe,-0x7f7e7f7f(%eax)
+ DB 255,0 ; incl (%eax)
+ DB 255,0 ; incl (%eax)
+ DB 255,0 ; incl (%eax)
+ DB 255,0 ; incl (%eax)
+ DB 254,0 ; incb (%eax)
+ DB 254,0 ; incb (%eax)
DB 254,0 ; incb (%eax)
DB 254,0 ; incb (%eax)
DB 254,0 ; incb (%eax)
@@ -72337,22 +57756,19 @@ ALIGN 16
DB 0,248 ; add %bh,%al
DB 0,248 ; add %bh,%al
DB 0,248 ; add %bh,%al
- DB 224,255 ; loopne 10951 <.literal16+0x811>
- DB 224,255 ; loopne 10953 <.literal16+0x813>
- DB 224,255 ; loopne 10955 <.literal16+0x815>
- DB 224,255 ; loopne 10957 <.literal16+0x817>
- DB 224,255 ; loopne 10959 <.literal16+0x819>
- DB 224,255 ; loopne 1095b <.literal16+0x81b>
- DB 224,255 ; loopne 1095d <.literal16+0x81d>
- DB 224,255 ; loopne 1095f <.literal16+0x81f>
+ DB 224,255 ; loopne cca1 <.literal16+0x771>
+ DB 224,255 ; loopne cca3 <.literal16+0x773>
+ DB 224,255 ; loopne cca5 <.literal16+0x775>
+ DB 224,255 ; loopne cca7 <.literal16+0x777>
+ DB 224,255 ; loopne cca9 <.literal16+0x779>
+ DB 224,255 ; loopne ccab <.literal16+0x77b>
+ DB 224,255 ; loopne ccad <.literal16+0x77d>
+ DB 224,255 ; loopne ccaf <.literal16+0x77f>
ALIGN 4
DB 0,0 ; add %al,(%eax)
DB 0,63 ; add %bh,(%edi)
DB 0,0 ; add %al,(%eax)
- DB 127,67 ; jg 109ab <_sk_srcover_rgba_8888_sse2_lowp+0xb2f>
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
- DB 79 ; dec %edi
+ DB 127,67 ; jg ccfb <_sk_srcover_rgba_8888_sse2_lowp+0xa9b>
ENDIF
END
diff --git a/src/jumper/SkJumper_stages_8bit.cpp b/src/jumper/SkJumper_stages_8bit.cpp
deleted file mode 100644
index d2b3699e5e..0000000000
--- a/src/jumper/SkJumper_stages_8bit.cpp
+++ /dev/null
@@ -1,480 +0,0 @@
-/*
- * Copyright 2017 Google Inc.
- *
- * Use of this source code is governed by a BSD-style license that can be
- * found in the LICENSE file.
- */
-
-// This restricted SkJumper backend works on 8-bit per channel pixels.
-// This is the natural format for kN32_SkColorType buffers, and we
-// hope the stages in this file can replace many custom legacy routines.
-
-#include "SkJumper.h"
-#include "SkJumper_misc.h"
-
-// Used by load_ and store_ stages to get to the right (x,y) starting point of contiguous memory.
-template <typename T>
-SI T* ptr_at_xy(const SkJumper_MemoryCtx* ctx, int x, int y) {
- return (T*)ctx->pixels + y*ctx->stride + x;
-}
-
-#if defined(JUMPER_IS_OFFLINE) // We compile x86 8-bit stages offline.
- #include <immintrin.h>
- #if defined(__AVX2__)
- #define WRAP(name) sk_##name##_hsw_8bit
- #elif defined(__SSE4_1__)
- #define WRAP(name) sk_##name##_sse41_8bit
- #elif defined(__SSE2__)
- #define WRAP(name) sk_##name##_sse2_8bit
- #endif
-
- // We're going to work with pixels transposed just as they'd be in memory,
- // generally either considering them U8x4 (r,g,b,a) or as U32 (rgba) values.
-
- #if defined(__AVX2__)
- using U8 = uint8_t __attribute__((ext_vector_type(16)));
- using U16 = uint16_t __attribute__((ext_vector_type(16)));
- using U32 = uint32_t __attribute__((ext_vector_type(16)));
- using U8x4 = uint8_t __attribute__((ext_vector_type(64)));
- using U16x4 = uint16_t __attribute__((ext_vector_type(64)));
- using R = uint8_t __attribute__((ext_vector_type(32)));
- #else
- using U8 = uint8_t __attribute__((ext_vector_type( 8)));
- using U16 = uint16_t __attribute__((ext_vector_type( 8)));
- using U32 = uint32_t __attribute__((ext_vector_type( 8)));
- using U8x4 = uint8_t __attribute__((ext_vector_type(32)));
- using U16x4 = uint16_t __attribute__((ext_vector_type(32)));
- using R = uint8_t __attribute__((ext_vector_type(16)));
- #endif
-
- // We double pump our math, making each U32 or U8x4 twice as wide as a native
- // vector register, and each U16x4 occupy four.
- //
- // These would be tricky to pass around directly because of ABI restrictions,
- // so we split them across two R to pass data between stages. This is
- // typically only a virtual operation, with no runtime cost.
- SI U8x4 join(R lo, R hi) {
- U8x4 u8x4;
- memcpy((char*)&u8x4 , &lo, sizeof(R));
- memcpy((char*)&u8x4 + sizeof(R), &hi, sizeof(R));
- return u8x4;
- }
- SI void split(U8x4 u8x4, R* lo, R* hi) {
- memcpy(lo, (char*)&u8x4 , sizeof(R));
- memcpy(hi, (char*)&u8x4 + sizeof(R), sizeof(R));
- }
-
- // Usually __builtin_convertvector() is pretty good, but sometimes we can do better.
- SI U8x4 pack(U16x4 v) {
- #if defined(__AVX2__)
- static_assert(sizeof(v) == 128, "");
- auto A = unaligned_load<__m256i>((char*)&v + 0),
- B = unaligned_load<__m256i>((char*)&v + 32),
- C = unaligned_load<__m256i>((char*)&v + 64),
- D = unaligned_load<__m256i>((char*)&v + 96);
-
- auto pack = [](__m256i lo, __m256i hi) {
- auto _02 = _mm256_permute2x128_si256(lo,hi, 0x20),
- _13 = _mm256_permute2x128_si256(lo,hi, 0x31);
- return _mm256_packus_epi16(_02, _13);
- };
- return join(pack(A,B), pack(C,D));
- #elif defined(__SSE2__)
- static_assert(sizeof(v) == 64, "");
- auto A = unaligned_load<__m128i>((char*)&v + 0),
- B = unaligned_load<__m128i>((char*)&v + 16),
- C = unaligned_load<__m128i>((char*)&v + 32),
- D = unaligned_load<__m128i>((char*)&v + 48);
- return join(_mm_packus_epi16(A,B), _mm_packus_epi16(C,D));
- #else
- return __builtin_convertvector(v, U8x4);
- #endif
- }
-
- union V {
- U32 u32;
- U8x4 u8x4;
-
- V() = default;
- V(U32 v) : u32 (v) {}
- V(U8x4 v) : u8x4(v) {}
- V(U16x4 v) : u8x4(pack((v + 127)/255)) {}
- V(int v) : u8x4(v) {}
- V(float v) : u8x4(v*255) {}
- };
- static const size_t kStride = sizeof(V) / sizeof(uint32_t);
-
- SI V operator+(V x, V y) { return x.u8x4 + y.u8x4; }
- SI V operator-(V x, V y) { return x.u8x4 - y.u8x4; }
- SI V operator*(V x, V y) {
- // (x*y + x)/256 is a very good approximation of (x*y + 127)/255.
- U16x4 X = __builtin_convertvector(x.u8x4, U16x4),
- Y = __builtin_convertvector(y.u8x4, U16x4);
- return pack((X*Y + X)>>8);
- }
-
- template <typename T>
- SI T inv(T v) { return 0xff - v; }
-
- SI V lerp(V from, V to, V t) { return to*t + from*inv(t); }
-
- SI V alpha(V v) {
- #if defined(__AVX2__)
- return __builtin_shufflevector(v.u8x4,v.u8x4,
- 3, 3, 3, 3, 7, 7, 7, 7, 11,11,11,11, 15,15,15,15,
- 19,19,19,19, 23,23,23,23, 27,27,27,27, 31,31,31,31,
- 35,35,35,35, 39,39,39,39, 43,43,43,43, 47,47,47,47,
- 51,51,51,51, 55,55,55,55, 59,59,59,59, 63,63,63,63);
- #else
- return __builtin_shufflevector(v.u8x4,v.u8x4,
- 3, 3, 3, 3, 7, 7, 7, 7, 11,11,11,11, 15,15,15,15,
- 19,19,19,19, 23,23,23,23, 27,27,27,27, 31,31,31,31);
- #endif
- }
-
- SI V swap_rb(V v) {
- #if defined(__AVX2__)
- return __builtin_shufflevector(v.u8x4,v.u8x4,
- 2, 1, 0, 3, 6, 5, 4, 7, 10, 9, 8,11, 14,13,12,15,
- 18,17,16,19, 22,21,20,23, 26,25,24,27, 30,29,28,31,
- 34,33,32,35, 38,37,36,39, 42,41,40,43, 46,45,44,47,
- 50,49,48,51, 54,53,52,55, 58,57,56,59, 62,61,60,63);
- #else
- return __builtin_shufflevector(v.u8x4,v.u8x4,
- 2, 1, 0, 3, 6, 5, 4, 7, 10, 9, 8,11, 14,13,12,15,
- 18,17,16,19, 22,21,20,23, 26,25,24,27, 30,29,28,31);
- #endif
- }
-
-
- template <typename MaskT, typename ValT>
- SI ValT if_then_else(MaskT m, ValT t, ValT e) {
- return (t & m) | (e & ~m);
- }
- SI V max(V a, V b) { return if_then_else(a.u8x4 > b.u8x4, a.u8x4, b.u8x4); }
- SI V min(V a, V b) { return if_then_else(a.u8x4 > b.u8x4, b.u8x4, a.u8x4); }
-
- SI V saturated_add(V a, V b) {
- R a_lo, a_hi,
- b_lo, b_hi;
- split(a.u8x4, &a_lo, &a_hi);
- split(b.u8x4, &b_lo, &b_hi);
- #if defined(__AVX2__)
- return join(_mm256_adds_epu8(a_lo, b_lo),
- _mm256_adds_epu8(a_hi, b_hi));
- #elif defined(__SSE2__)
- return join(_mm_adds_epu8(a_lo, b_lo),
- _mm_adds_epu8(a_hi, b_hi));
- #endif
- }
-
- // We pass program as the second argument to keep it in rsi for load_and_inc().
- using Stage = void(*)(size_t tail, void** program, size_t x, size_t y,
- R src_lo, R src_hi, R dst_lo, R dst_hi);
-
- #if defined(__AVX__)
- // We really want to make sure all paths go through this function's (implicit) vzeroupper.
- // If they don't, we'll experience severe slowdowns when we first use SSE again.
- __attribute__((disable_tail_calls))
- #endif
- MAYBE_MSABI
- extern "C" void WRAP(start_pipeline)(size_t x, size_t y, size_t xlimit, size_t ylimit,
- void** program) {
- #if defined(JUMPER_IS_OFFLINE)
- R r; // Fastest to start uninitialized.
- #else
- R r{}; // Next best is zero'd for compilers that will complain about uninitialized values.
- #endif
- auto start = (Stage)load_and_inc(program);
- const size_t x0 = x;
- for (; y < ylimit; y++) {
- x = x0;
- while (x + kStride <= xlimit) {
- start(0,program,x,y, r,r,r,r);
- x += kStride;
- }
- if (size_t tail = xlimit - x) {
- start(tail,program,x,y, r,r,r,r);
- }
- }
- }
-
- extern "C" void WRAP(just_return)(size_t,void**,size_t,size_t, R,R,R,R) {}
-
- #define STAGE(name) \
- SI void name##_k(LazyCtx ctx, size_t x, size_t y, size_t tail, V& src, V& dst); \
- extern "C" void WRAP(name)(size_t tail, void** program, size_t x, size_t y, \
- R src_lo, R src_hi, R dst_lo, R dst_hi) { \
- V src = join(src_lo, src_hi), \
- dst = join(dst_lo, dst_hi); \
- LazyCtx ctx(program); \
- name##_k(ctx, x,y,tail, src, dst); \
- split(src.u8x4, &src_lo, &src_hi); \
- split(dst.u8x4, &dst_lo, &dst_hi); \
- auto next = (Stage)load_and_inc(program); \
- next(tail,program,x,y, src_lo,src_hi, dst_lo,dst_hi); \
- } \
- SI void name##_k(LazyCtx ctx, size_t x, size_t y, size_t tail, V& src, V& dst)
-
- template <typename V, typename T>
- SI V load(const T* src, size_t tail) {
- __builtin_assume(tail < kStride);
- if (__builtin_expect(tail, 0)) {
- V v = 0;
- switch (tail) {
- #if defined(__AVX2__)
- case 15: v[14] = src[14];
- case 14: v[13] = src[13];
- case 13: v[12] = src[12];
- case 12: memcpy(&v, src, 12*sizeof(T)); break;
- case 11: v[10] = src[10];
- case 10: v[ 9] = src[ 9];
- case 9: v[ 8] = src[ 8];
- case 8: memcpy(&v, src, 8*sizeof(T)); break;
- #endif
- case 7: v[6] = src[6];
- case 6: v[5] = src[5];
- case 5: v[4] = src[4];
- case 4: memcpy(&v, src, 4*sizeof(T)); break;
- case 3: v[2] = src[2];
- case 2: memcpy(&v, src, 2*sizeof(T)); break;
- case 1: memcpy(&v, src, 1*sizeof(T)); break;
- }
- return v;
- }
- return unaligned_load<V>(src);
- }
-
- template <typename V, typename T>
- SI void store(T* dst, V v, size_t tail) {
- __builtin_assume(tail < kStride);
- if (__builtin_expect(tail, 0)) {
- switch (tail) {
- #if defined(__AVX2__)
- case 15: dst[14] = v[14];
- case 14: dst[13] = v[13];
- case 13: dst[12] = v[12];
- case 12: memcpy(dst, &v, 12*sizeof(T)); break;
- case 11: dst[10] = v[10];
- case 10: dst[ 9] = v[ 9];
- case 9: dst[ 8] = v[ 8];
- case 8: memcpy(dst, &v, 8*sizeof(T)); break;
- #endif
- case 7: dst[6] = v[6];
- case 6: dst[5] = v[5];
- case 5: dst[4] = v[4];
- case 4: memcpy(dst, &v, 4*sizeof(T)); break;
- case 3: dst[2] = v[2];
- case 2: memcpy(dst, &v, 2*sizeof(T)); break;
- case 1: memcpy(dst, &v, 1*sizeof(T)); break;
- }
- return;
- }
- unaligned_store(dst, v);
- }
-
-
- STAGE(uniform_color) {
- auto c = (const SkJumper_UniformColorCtx*)ctx;
- src.u32 = c->rgba;
- }
-
- STAGE(set_rgb) {
- auto c = (const float*)ctx;
-
- src.u32 = (uint32_t)(c[0] * 255) << 0
- | (uint32_t)(c[1] * 255) << 8
- | (uint32_t)(c[2] * 255) << 16
- | (src.u32 & 0xff000000);
- }
-
- STAGE(premul) {
- // I.e. rgb *= a, a *= 1.0f.
- src = src * (alpha(src).u32 | 0xff000000);
- }
- STAGE(swap_rb) {
- src = swap_rb(src);
- }
- STAGE(invert) {
- src = inv(src);
- }
-
- STAGE(load_8888) {
- auto ptr = ptr_at_xy<const uint32_t>(ctx, x,y);
- src = load<U32>(ptr, tail);
- }
- STAGE(load_8888_dst) {
- auto ptr = ptr_at_xy<const uint32_t>(ctx, x,y);
- dst = load<U32>(ptr, tail);
- }
- STAGE(store_8888) {
- auto ptr = ptr_at_xy<uint32_t>(ctx, x,y);
- store(ptr, src.u32, tail);
- }
-
- STAGE(load_bgra) {
- auto ptr = ptr_at_xy<const uint32_t>(ctx, x,y);
- src = swap_rb(load<U32>(ptr, tail));
- }
- STAGE(load_bgra_dst) {
- auto ptr = ptr_at_xy<const uint32_t>(ctx, x,y);
- dst = swap_rb(load<U32>(ptr, tail));
- }
- STAGE(store_bgra) {
- auto ptr = ptr_at_xy<uint32_t>(ctx, x,y);
- store(ptr, swap_rb(src).u32, tail);
- }
-
- STAGE(store_565) {
- auto ptr = ptr_at_xy<uint16_t>(ctx, x,y);
-
- U32 r = (src.u32 & 0x0000F8) << 8;
- U32 g = (src.u32 & 0x00FC00) >> 5;
- U32 b = (src.u32 & 0xF80000) >> 19;
-
- store(ptr, __builtin_convertvector(r | g | b, U16), tail);
- }
- STAGE(load_565_dst) {
- auto ptr = ptr_at_xy<const uint16_t>(ctx, x,y);
- U32 p = __builtin_convertvector(load<U16>(ptr, tail), U32);
-
- U32 rb = ((p & 0xF800) >> 8) | ((p & 0x001F) << 19);
- rb = rb | ((rb >> 5) & 0x70007);
- U32 g = ((p & 0x07E0) << 5) | ((p & 0x0C00) >> 1);
-
- dst = (0xFF << 24) | rb | g;
- }
-
- STAGE(load_a8) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, x,y);
- src = __builtin_convertvector(load<U8>(ptr, tail), U32) << 24;
- }
- STAGE(load_a8_dst) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, x,y);
- dst = __builtin_convertvector(load<U8>(ptr, tail), U32) << 24;
- }
- STAGE(store_a8) {
- auto ptr = ptr_at_xy<uint8_t>(ctx, x,y);
- store(ptr, __builtin_convertvector(src.u32 >> 24, U8), tail);
- }
-
- STAGE(load_g8) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, x,y);
- src = (__builtin_convertvector(load<U8>(ptr, tail), U32) * 0x010101) | 0xff000000;
- }
- STAGE(load_g8_dst) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, x,y);
- dst = (__builtin_convertvector(load<U8>(ptr, tail), U32) * 0x010101) | 0xff000000;
- }
-
- STAGE(srcover_rgba_8888) {
- auto ptr = ptr_at_xy<uint32_t>(ctx, x,y);
-
- V d = load<U32>(ptr, tail);
- V b = src + (d - d*alpha(src));
-
- store(ptr, b.u32, tail);
- }
-
- STAGE(scale_1_float) {
- float c = *(const float*)ctx;
- src = src * c;
- }
- STAGE(scale_u8) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, x,y);
-
- V c = __builtin_convertvector(load<U8>(ptr, tail), U32) << 24;
- src = src * alpha(c);
- }
-
- STAGE(lerp_1_float) {
- float c = *(const float*)ctx;
- src = lerp(dst, src, c);
- }
- STAGE(lerp_u8) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, x,y);
-
- V c = __builtin_convertvector(load<U8>(ptr, tail), U32) << 24;
- src = lerp(dst, src, alpha(c));
- }
-
- STAGE(move_src_dst) { dst = src; }
- STAGE(move_dst_src) { src = dst; }
-
- STAGE(black_color) { src.u32 = 0xff000000; }
- STAGE(white_color) { src.u32 = 0xffffffff; }
- STAGE(clear) { src.u32 = 0x00000000; }
-
- STAGE(srcatop) { src = src*alpha(dst) + dst*inv(alpha(src)); }
- STAGE(dstatop) { src = dst*alpha(src) + src*inv(alpha(dst)); }
- STAGE(srcin) { src = src * alpha(dst); }
- STAGE(dstin) { src = dst * alpha(src); }
- STAGE(srcout) { src = src * inv(alpha(dst)); }
- STAGE(dstout) { src = dst * inv(alpha(src)); }
- STAGE(srcover) { src = src + (dst - dst*alpha(src)); }
- STAGE(dstover) { src = dst + (src - src*alpha(dst)); }
- STAGE(modulate) { src = src*dst; }
- STAGE(multiply) { src = src*inv(alpha(dst)) + dst*inv(alpha(src)) + src*dst; }
- STAGE(screen) { src = src + inv(src)*dst; }
- STAGE(xor_) { src = src*inv(alpha(dst)) + dst*inv(alpha(src)); }
- STAGE(plus_) { src = saturated_add(src, dst); }
-
- SI V srcover_alpha(V src, V dst, V rgb) {
- V a = src + (dst - dst*alpha(src));
- return (rgb.u32 & 0x00ffffff) | (a.u32 & 0xff000000);
- }
-
- STAGE(darken) {
- src = srcover_alpha(src, dst, src + (dst - max(src*alpha(dst), dst*alpha(src))));
- }
- STAGE(lighten) {
- src = srcover_alpha(src, dst, src + (dst - min(src*alpha(dst), dst*alpha(src))));
- }
-
- SI V zero_alpha(V rgba) { return rgba.u32 & 0x00ffffff; }
-
- STAGE(exclusion) {
- // We could do exclusion with srcover_alpha(), but can fold a little more math through:
- // rgb = Sc + Dc - 2*Sc*Dc
- // alpha = Sa + Da - Sa*Da
- // So we just subtract two sd from rgb, and one from alpha.
- V sd = src*dst;
- src = (src - sd) + (dst - zero_alpha(sd));
- }
- STAGE(difference) {
- // Like exclusion, we can fold math through with the same trick:
- // rgb = Sc + Dc - 2*min(Sc*Da, Dc*Sa)
- // alpha = Sa + Da - Sa*Da
- // Here notice (Sa*Da) == min(Sa*Da, Da*Sa) for alpha,
- // so again we subtract two from rgb, one from alpha.
- V min_ = min(src*alpha(dst), dst*alpha(src));
- src = (src - min_) + (dst - zero_alpha(min_));
- }
-
- template <typename Func>
- V blend_rgb16(V src, V dst, Func&& blend) {
- U16x4 s = __builtin_convertvector( src.u8x4, U16x4),
- sa = __builtin_convertvector(alpha(src).u8x4, U16x4),
- d = __builtin_convertvector( dst.u8x4, U16x4),
- da = __builtin_convertvector(alpha(dst).u8x4, U16x4),
-
- rgb = blend(s, d, sa, da),
- a = s + (d - d*sa);
-
- return if_then_else(0x0000ffffffffffff, rgb, a);
- }
-
- STAGE(hardlight) {
- src = blend_rgb16(src, dst, [](U16x4 s, U16x4 d, U16x4 sa, U16x4 da) {
- return s*inv(da) + d*inv(sa)
- + if_then_else(s*2 <= sa, s*d*2, sa*da - (da - d)*(sa - s)*2);
- });
- }
-
- STAGE(overlay) {
- src = blend_rgb16(src, dst, [](U16x4 s, U16x4 d, U16x4 sa, U16x4 da) {
- return s*inv(da) + d*inv(sa)
- + if_then_else(d*2 <= da, s*d*2, sa*da - (da - d)*(sa - s)*2);
- });
- }
-#endif
diff --git a/src/jumper/build_stages.py b/src/jumper/build_stages.py
index 40d297bfe1..52a8c8ba40 100755
--- a/src/jumper/build_stages.py
+++ b/src/jumper/build_stages.py
@@ -13,7 +13,6 @@ clang = 'clang-5.0'
objdump = 'gobjdump'
ccache = 'ccache'
stages = 'src/jumper/SkJumper_stages.cpp'
-stages_8bit = 'src/jumper/SkJumper_stages_8bit.cpp'
stages_lowp = 'src/jumper/SkJumper_stages_lowp.cpp'
generated = 'src/jumper/SkJumper_generated.S'
generated_win = 'src/jumper/SkJumper_generated_win.S'
@@ -22,10 +21,9 @@ clang = sys.argv[1] if len(sys.argv) > 1 else clang
objdump = sys.argv[2] if len(sys.argv) > 2 else objdump
ccache = sys.argv[3] if len(sys.argv) > 3 else ccache
stages = sys.argv[4] if len(sys.argv) > 4 else stages
-stages_8bit = sys.argv[5] if len(sys.argv) > 5 else stages_8bit
-stages_lowp = sys.argv[6] if len(sys.argv) > 6 else stages_lowp
-generated = sys.argv[7] if len(sys.argv) > 7 else generated
-generated_win = sys.argv[8] if len(sys.argv) > 8 else generated_win
+stages_lowp = sys.argv[5] if len(sys.argv) > 5 else stages_lowp
+generated = sys.argv[6] if len(sys.argv) > 6 else generated
+generated_win = sys.argv[7] if len(sys.argv) > 7 else generated_win
clang = [ccache, clang, '-x', 'c++']
@@ -51,19 +49,6 @@ subprocess.check_call(clang + cflags + sse2 + win + x86 +
['-o', 'win_x86_sse2.o'])
subprocess.check_call(clang + cflags + sse2 +
- ['-c', stages_8bit] +
- ['-o', '8bit_sse2.o'])
-subprocess.check_call(clang + cflags + sse2 + win +
- ['-c', stages_8bit] +
- ['-o', 'win_8bit_sse2.o'])
-subprocess.check_call(clang + cflags + sse2 + x86 +
- ['-c', stages_8bit] +
- ['-o', 'x86_8bit_sse2.o'])
-subprocess.check_call(clang + cflags + sse2 + win + x86 +
- ['-c', stages_8bit] +
- ['-o', 'win_x86_8bit_sse2.o'])
-
-subprocess.check_call(clang + cflags + sse2 +
['-c', stages_lowp] +
['-o', 'lowp_sse2.o'])
subprocess.check_call(clang + cflags + sse2 + win +
@@ -85,13 +70,6 @@ subprocess.check_call(clang + cflags + sse41 + win +
['-o', 'win_sse41.o'])
subprocess.check_call(clang + cflags + sse41 +
- ['-c', stages_8bit] +
- ['-o', '8bit_sse41.o'])
-subprocess.check_call(clang + cflags + sse41 + win +
- ['-c', stages_8bit] +
- ['-o', 'win_8bit_sse41.o'])
-
-subprocess.check_call(clang + cflags + sse41 +
['-c', stages_lowp] +
['-o', 'lowp_sse41.o'])
subprocess.check_call(clang + cflags + sse41 + win +
@@ -115,13 +93,6 @@ subprocess.check_call(clang + cflags + hsw + win +
['-o', 'win_hsw.o'])
subprocess.check_call(clang + cflags + hsw +
- ['-c', stages_8bit] +
- ['-o', '8bit_hsw.o'])
-subprocess.check_call(clang + cflags + hsw + win +
- ['-c', stages_8bit] +
- ['-o', 'win_8bit_hsw.o'])
-
-subprocess.check_call(clang + cflags + hsw +
['-c', stages_lowp] +
['-o', 'lowp_hsw.o'])
subprocess.check_call(clang + cflags + hsw + win +
@@ -132,20 +103,16 @@ subprocess.check_call(clang + cflags + hsw + win +
# (No other platform has more than one specialization.)
subprocess.check_call(['ld', '-r', '-o', 'merged.o',
'hsw.o', 'avx.o', 'sse41.o', 'sse2.o',
- '8bit_hsw.o', '8bit_sse41.o', '8bit_sse2.o',
'lowp_hsw.o', 'lowp_sse41.o', 'lowp_sse2.o'])
subprocess.check_call(['ld', '-r', '-o', 'win_merged.o',
'win_hsw.o', 'win_avx.o', 'win_sse41.o', 'win_sse2.o',
- 'win_8bit_hsw.o', 'win_8bit_sse41.o', 'win_8bit_sse2.o',
'win_lowp_hsw.o', 'win_lowp_sse41.o', 'win_lowp_sse2.o'])
subprocess.check_call(['ld', '-r', '-o', 'x86_merged.o',
'x86_sse2.o',
- 'x86_8bit_sse2.o',
'x86_lowp_sse2.o'])
subprocess.check_call(['ld', '-r', '-o', 'win_x86_merged.o',
'win_x86_sse2.o',
- 'win_x86_8bit_sse2.o',
'win_x86_lowp_sse2.o'])
vfp4 = [