aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S10618
1 files changed, 5283 insertions, 5335 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 9382fb61ec..bf4b9e535d 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -109,37 +109,33 @@ _sk_seed_shader_vfp4:
.long 0xe3a02020 // mov r2, #32
.long 0xe1a03000 // mov r3, r0
.long 0xf4e30cb2 // vld1.32 {d16[]-d17[]}, [r3 :32], r2
- .long 0xe28f2054 // add r2, pc, #84
- .long 0xf2c04050 // vmov.i32 q10, #0
+ .long 0xe2802004 // add r2, r0, #4
+ .long 0xf2c06050 // vmov.i32 q11, #0
+ .long 0xf4e22cbf // vld1.32 {d18[]-d19[]}, [r2 :32]
.long 0xf3fb0660 // vcvt.f32.s32 q8, q8
+ .long 0xf3fb2662 // vcvt.f32.s32 q9, q9
+ .long 0xe591c000 // ldr ip, [r1]
+ .long 0xe28f203c // add r2, pc, #60
.long 0xf4224acf // vld1.64 {d4-d5}, [r2]
- .long 0xe28f2054 // add r2, pc, #84
- .long 0xf2c3265f // vmov.i32 q9, #1056964608
- .long 0xf4626acf // vld1.64 {d22-d23}, [r2]
- .long 0xe2802004 // add r2, r0, #4
- .long 0xf2806050 // vmov.i32 q3, #0
- .long 0xf4e28cbf // vld1.32 {d24[]-d25[]}, [r2 :32]
.long 0xe2802040 // add r2, r0, #64
- .long 0xf3fb8668 // vcvt.f32.s32 q12, q12
- .long 0xf4424acf // vst1.64 {d20-d21}, [r2]
+ .long 0xf2c3465f // vmov.i32 q10, #1056964608
+ .long 0xf46c8a8f // vld1.32 {d24-d25}, [ip]
+ .long 0xf2806050 // vmov.i32 q3, #0
+ .long 0xf2080de0 // vadd.f32 q0, q12, q8
+ .long 0xf4426acf // vst1.64 {d22-d23}, [r2]
.long 0xe2802030 // add r2, r0, #48
- .long 0xf2000de6 // vadd.f32 q0, q8, q11
- .long 0xf4424acf // vst1.64 {d20-d21}, [r2]
+ .long 0xf2022de4 // vadd.f32 q1, q9, q10
+ .long 0xf4426acf // vst1.64 {d22-d23}, [r2]
.long 0xe2802010 // add r2, r0, #16
- .long 0xf2082de2 // vadd.f32 q1, q12, q9
- .long 0xf4434acf // vst1.64 {d20-d21}, [r3]
- .long 0xf4424acf // vst1.64 {d20-d21}, [r2]
- .long 0xe4912004 // ldr r2, [r1], #4
+ .long 0xf4436acf // vst1.64 {d22-d23}, [r3]
+ .long 0xf4426acf // vst1.64 {d22-d23}, [r2]
+ .long 0xe5912004 // ldr r2, [r1, #4]
+ .long 0xe2811008 // add r1, r1, #8
.long 0xe12fff12 // bx r2
- .long 0xe320f000 // nop {0}
.long 0x3f800000 // .word 0x3f800000
.long 0x3f800000 // .word 0x3f800000
.long 0x3f800000 // .word 0x3f800000
.long 0x3f800000 // .word 0x3f800000
- .long 0x3f000000 // .word 0x3f000000
- .long 0x3fc00000 // .word 0x3fc00000
- .long 0x40200000 // .word 0x40200000
- .long 0x40600000 // .word 0x40600000
HIDDEN _sk_dither_vfp4
.globl _sk_dither_vfp4
@@ -1890,7 +1886,7 @@ _sk_srcover_rgba_8888_vfp4:
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe2804020 // add r4, r0, #32
.long 0xe0822106 // add r2, r2, r6, lsl #2
- .long 0x1a000032 // bne 1b10 <sk_srcover_rgba_8888_vfp4+0x110>
+ .long 0x1a000032 // bne 1b00 <sk_srcover_rgba_8888_vfp4+0x110>
.long 0xf4620a8f // vld1.32 {d16-d17}, [r2]
.long 0xf3c7405f // vmov.i32 q10, #255
.long 0xe28f6f51 // add r6, pc, #324
@@ -1935,7 +1931,7 @@ _sk_srcover_rgba_8888_vfp4:
.long 0xf2f0c57c // vshl.s32 q14, q14, #16
.long 0xf26e01f4 // vorr q8, q15, q10
.long 0xf26001fc // vorr q8, q8, q14
- .long 0x1a000015 // bne 1b50 <sk_srcover_rgba_8888_vfp4+0x150>
+ .long 0x1a000015 // bne 1b40 <sk_srcover_rgba_8888_vfp4+0x150>
.long 0xf4420a8f // vst1.32 {d16-d17}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -1944,12 +1940,12 @@ _sk_srcover_rgba_8888_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe2036003 // and r6, r3, #3
.long 0xe3560001 // cmp r6, #1
- .long 0x0a000017 // beq 1b7c <sk_srcover_rgba_8888_vfp4+0x17c>
+ .long 0x0a000017 // beq 1b6c <sk_srcover_rgba_8888_vfp4+0x17c>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3560002 // cmp r6, #2
- .long 0x0a000005 // beq 1b40 <sk_srcover_rgba_8888_vfp4+0x140>
+ .long 0x0a000005 // beq 1b30 <sk_srcover_rgba_8888_vfp4+0x140>
.long 0xe3560003 // cmp r6, #3
- .long 0x1affffc5 // bne 1a48 <sk_srcover_rgba_8888_vfp4+0x48>
+ .long 0x1affffc5 // bne 1a38 <sk_srcover_rgba_8888_vfp4+0x48>
.long 0xe3a06000 // mov r6, #0
.long 0xeea06b90 // vdup.32 q8, r6
.long 0xe2826008 // add r6, r2, #8
@@ -1957,24 +1953,24 @@ _sk_srcover_rgba_8888_vfp4:
.long 0xedd22b00 // vldr d18, [r2]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffbd // b 1a48 <sk_srcover_rgba_8888_vfp4+0x48>
+ .long 0xeaffffbd // b 1a38 <sk_srcover_rgba_8888_vfp4+0x48>
.long 0xe2033003 // and r3, r3, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000b // beq 1b8c <sk_srcover_rgba_8888_vfp4+0x18c>
+ .long 0x0a00000b // beq 1b7c <sk_srcover_rgba_8888_vfp4+0x18c>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 1b74 <sk_srcover_rgba_8888_vfp4+0x174>
+ .long 0x0a000003 // beq 1b64 <sk_srcover_rgba_8888_vfp4+0x174>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe3 // bne 1afc <sk_srcover_rgba_8888_vfp4+0xfc>
+ .long 0x1affffe3 // bne 1aec <sk_srcover_rgba_8888_vfp4+0xfc>
.long 0xe2823008 // add r3, r2, #8
.long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32]
.long 0xedc20b00 // vstr d16, [r2]
- .long 0xeaffffdf // b 1afc <sk_srcover_rgba_8888_vfp4+0xfc>
+ .long 0xeaffffdf // b 1aec <sk_srcover_rgba_8888_vfp4+0xfc>
.long 0xe3a06000 // mov r6, #0
.long 0xeea06b90 // vdup.32 q8, r6
.long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffae // b 1a48 <sk_srcover_rgba_8888_vfp4+0x48>
+ .long 0xeaffffae // b 1a38 <sk_srcover_rgba_8888_vfp4+0x48>
.long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffd9 // b 1afc <sk_srcover_rgba_8888_vfp4+0xfc>
+ .long 0xeaffffd9 // b 1aec <sk_srcover_rgba_8888_vfp4+0xfc>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -2629,7 +2625,7 @@ _sk_scale_u8_vfp4:
.long 0xe35c0000 // cmp ip, #0
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
- .long 0x1a000013 // bne 24a4 <sk_scale_u8_vfp4+0x7c>
+ .long 0x1a000013 // bne 2494 <sk_scale_u8_vfp4+0x7c>
.long 0xe5922000 // ldr r2, [r2]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -2652,12 +2648,12 @@ _sk_scale_u8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000012 // beq 24fc <sk_scale_u8_vfp4+0xd4>
+ .long 0x0a000012 // beq 24ec <sk_scale_u8_vfp4+0xd4>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 24d4 <sk_scale_u8_vfp4+0xac>
+ .long 0x0a000005 // beq 24c4 <sk_scale_u8_vfp4+0xac>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe8 // bne 2468 <sk_scale_u8_vfp4+0x40>
+ .long 0x1affffe8 // bne 2458 <sk_scale_u8_vfp4+0x40>
.long 0xe3a04000 // mov r4, #0
.long 0xe5d23002 // ldrb r3, [r2, #2]
.long 0xee804bb0 // vdup.16 d16, r4
@@ -2671,12 +2667,12 @@ _sk_scale_u8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffda // b 2468 <sk_scale_u8_vfp4+0x40>
+ .long 0xeaffffda // b 2458 <sk_scale_u8_vfp4+0x40>
.long 0xe3a03000 // mov r3, #0
.long 0xe5d22000 // ldrb r2, [r2]
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd5 // b 2468 <sk_scale_u8_vfp4+0x40>
+ .long 0xeaffffd5 // b 2458 <sk_scale_u8_vfp4+0x40>
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -2698,7 +2694,7 @@ _sk_scale_565_vfp4:
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082308c // add r3, r2, ip, lsl #1
.long 0xe280c040 // add ip, r0, #64
- .long 0x1a000024 // bne 25e8 <sk_scale_565_vfp4+0xc8>
+ .long 0x1a000024 // bne 25d8 <sk_scale_565_vfp4+0xc8>
.long 0xf463074f // vld1.16 {d16}, [r3]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a02e7e // mov r2, #2016
@@ -2738,12 +2734,12 @@ _sk_scale_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20e2003 // and r2, lr, #3
.long 0xe3520001 // cmp r2, #1
- .long 0x0a000011 // beq 263c <sk_scale_565_vfp4+0x11c>
+ .long 0x0a000011 // beq 262c <sk_scale_565_vfp4+0x11c>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3520002 // cmp r2, #2
- .long 0x0a000005 // beq 2618 <sk_scale_565_vfp4+0xf8>
+ .long 0x0a000005 // beq 2608 <sk_scale_565_vfp4+0xf8>
.long 0xe3520003 // cmp r2, #3
- .long 0x1affffd3 // bne 2558 <sk_scale_565_vfp4+0x38>
+ .long 0x1affffd3 // bne 2548 <sk_scale_565_vfp4+0x38>
.long 0xe3a02000 // mov r2, #0
.long 0xee802bb0 // vdup.16 d16, r2
.long 0xe2832004 // add r2, r3, #4
@@ -2756,11 +2752,11 @@ _sk_scale_565_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffc6 // b 2558 <sk_scale_565_vfp4+0x38>
+ .long 0xeaffffc6 // b 2548 <sk_scale_565_vfp4+0x38>
.long 0xe3a02000 // mov r2, #0
.long 0xee802bb0 // vdup.16 d16, r2
.long 0xf4e3041f // vld1.16 {d16[0]}, [r3 :16]
- .long 0xeaffffc2 // b 2558 <sk_scale_565_vfp4+0x38>
+ .long 0xeaffffc2 // b 2548 <sk_scale_565_vfp4+0x38>
.long 0xe320f000 // nop {0}
.long 0x3d042108 // .word 0x3d042108
.long 0x3d042108 // .word 0x3d042108
@@ -2821,7 +2817,7 @@ _sk_lerp_u8_vfp4:
.long 0xe0824003 // add r4, r2, r3
.long 0xe2803020 // add r3, r0, #32
.long 0xe2802010 // add r2, r0, #16
- .long 0x1a00001f // bne 2798 <sk_lerp_u8_vfp4+0xb8>
+ .long 0x1a00001f // bne 2788 <sk_lerp_u8_vfp4+0xb8>
.long 0xe5944000 // ldr r4, [r4]
.long 0xe58d4000 // str r4, [sp]
.long 0xe1a0400d // mov r4, sp
@@ -2856,12 +2852,12 @@ _sk_lerp_u8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000012 // beq 27f0 <sk_lerp_u8_vfp4+0x110>
+ .long 0x0a000012 // beq 27e0 <sk_lerp_u8_vfp4+0x110>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 27c8 <sk_lerp_u8_vfp4+0xe8>
+ .long 0x0a000005 // beq 27b8 <sk_lerp_u8_vfp4+0xe8>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffdc // bne 272c <sk_lerp_u8_vfp4+0x4c>
+ .long 0x1affffdc // bne 271c <sk_lerp_u8_vfp4+0x4c>
.long 0xe3a06000 // mov r6, #0
.long 0xe5d45002 // ldrb r5, [r4, #2]
.long 0xee806bb0 // vdup.16 d16, r6
@@ -2875,12 +2871,12 @@ _sk_lerp_u8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffce // b 272c <sk_lerp_u8_vfp4+0x4c>
+ .long 0xeaffffce // b 271c <sk_lerp_u8_vfp4+0x4c>
.long 0xe3a05000 // mov r5, #0
.long 0xe5d44000 // ldrb r4, [r4]
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xee004bb0 // vmov.16 d16[0], r4
- .long 0xeaffffc9 // b 272c <sk_lerp_u8_vfp4+0x4c>
+ .long 0xeaffffc9 // b 271c <sk_lerp_u8_vfp4+0x4c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -2905,7 +2901,7 @@ _sk_lerp_565_vfp4:
.long 0xe0824083 // add r4, r2, r3, lsl #1
.long 0xe2802030 // add r2, r0, #48
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00002f // bne 2914 <sk_lerp_565_vfp4+0xfc>
+ .long 0x1a00002f // bne 2904 <sk_lerp_565_vfp4+0xfc>
.long 0xf464074f // vld1.16 {d16}, [r4]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a04e7e // mov r4, #2016
@@ -2956,12 +2952,12 @@ _sk_lerp_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000011 // beq 2968 <sk_lerp_565_vfp4+0x150>
+ .long 0x0a000011 // beq 2958 <sk_lerp_565_vfp4+0x150>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 2944 <sk_lerp_565_vfp4+0x12c>
+ .long 0x0a000005 // beq 2934 <sk_lerp_565_vfp4+0x12c>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffc8 // bne 2858 <sk_lerp_565_vfp4+0x40>
+ .long 0x1affffc8 // bne 2848 <sk_lerp_565_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xe2845004 // add r5, r4, #4
@@ -2974,11 +2970,11 @@ _sk_lerp_565_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffbb // b 2858 <sk_lerp_565_vfp4+0x40>
+ .long 0xeaffffbb // b 2848 <sk_lerp_565_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16]
- .long 0xeaffffb7 // b 2858 <sk_lerp_565_vfp4+0x40>
+ .long 0xeaffffb7 // b 2848 <sk_lerp_565_vfp4+0x40>
.long 0x3d042108 // .word 0x3d042108
.long 0x3d042108 // .word 0x3d042108
.long 0x3d042108 // .word 0x3d042108
@@ -3003,7 +2999,7 @@ _sk_load_tables_vfp4:
.long 0xe5954000 // ldr r4, [r5]
.long 0xe3530000 // cmp r3, #0
.long 0xe084e102 // add lr, r4, r2, lsl #2
- .long 0x1a000036 // bne 2aa4 <sk_load_tables_vfp4+0xfc>
+ .long 0x1a000036 // bne 2a94 <sk_load_tables_vfp4+0xfc>
.long 0xf46e0a8f // vld1.32 {d16-d17}, [lr]
.long 0xf3c7405f // vmov.i32 q10, #255
.long 0xe5956004 // ldr r6, [r5, #4]
@@ -3061,12 +3057,12 @@ _sk_load_tables_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe203c003 // and ip, r3, #3
.long 0xe35c0001 // cmp ip, #1
- .long 0x0a00000c // beq 2ae4 <sk_load_tables_vfp4+0x13c>
+ .long 0x0a00000c // beq 2ad4 <sk_load_tables_vfp4+0x13c>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe35c0002 // cmp ip, #2
- .long 0x0a000005 // beq 2ad4 <sk_load_tables_vfp4+0x12c>
+ .long 0x0a000005 // beq 2ac4 <sk_load_tables_vfp4+0x12c>
.long 0xe35c0003 // cmp ip, #3
- .long 0x1affffc1 // bne 29cc <sk_load_tables_vfp4+0x24>
+ .long 0x1affffc1 // bne 29bc <sk_load_tables_vfp4+0x24>
.long 0xe3a02000 // mov r2, #0
.long 0xeea02b90 // vdup.32 q8, r2
.long 0xe28e2008 // add r2, lr, #8
@@ -3074,11 +3070,11 @@ _sk_load_tables_vfp4:
.long 0xedde2b00 // vldr d18, [lr]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffb9 // b 29cc <sk_load_tables_vfp4+0x24>
+ .long 0xeaffffb9 // b 29bc <sk_load_tables_vfp4+0x24>
.long 0xe3a02000 // mov r2, #0
.long 0xeea02b90 // vdup.32 q8, r2
.long 0xf4ee083f // vld1.32 {d16[0]}, [lr :32]
- .long 0xeaffffb5 // b 29cc <sk_load_tables_vfp4+0x24>
+ .long 0xeaffffb5 // b 29bc <sk_load_tables_vfp4+0x24>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -3096,7 +3092,7 @@ _sk_load_tables_u16_be_vfp4:
.long 0xe5982000 // ldr r2, [r8]
.long 0xe35e0000 // cmp lr, #0
.long 0xe082c183 // add ip, r2, r3, lsl #3
- .long 0x1a000039 // bne 2c10 <sk_load_tables_u16_be_vfp4+0x108>
+ .long 0x1a000039 // bne 2c00 <sk_load_tables_u16_be_vfp4+0x108>
.long 0xf46c004f // vld4.16 {d16-d19}, [ip]
.long 0xf3c72b3f // vbic.i16 d18, #65280
.long 0xe5986004 // ldr r6, [r8, #4]
@@ -3157,14 +3153,14 @@ _sk_load_tables_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4ec070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [ip]
.long 0xe35e0001 // cmp lr, #1
- .long 0x0affffc3 // beq 2b2c <sk_load_tables_u16_be_vfp4+0x24>
+ .long 0x0affffc3 // beq 2b1c <sk_load_tables_u16_be_vfp4+0x24>
.long 0xe28c2008 // add r2, ip, #8
.long 0xe35e0003 // cmp lr, #3
.long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3affffbf // bcc 2b2c <sk_load_tables_u16_be_vfp4+0x24>
+ .long 0x3affffbf // bcc 2b1c <sk_load_tables_u16_be_vfp4+0x24>
.long 0xe28c2010 // add r2, ip, #16
.long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeaffffbc // b 2b2c <sk_load_tables_u16_be_vfp4+0x24>
+ .long 0xeaffffbc // b 2b1c <sk_load_tables_u16_be_vfp4+0x24>
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
@@ -3182,7 +3178,7 @@ _sk_load_tables_rgb_u16_be_vfp4:
.long 0xe5982000 // ldr r2, [r8]
.long 0xe35e0000 // cmp lr, #0
.long 0xe082c083 // add ip, r2, r3, lsl #1
- .long 0x1a000033 // bne 2d3c <sk_load_tables_rgb_u16_be_vfp4+0xf4>
+ .long 0x1a000033 // bne 2d2c <sk_load_tables_rgb_u16_be_vfp4+0xf4>
.long 0xf46c044f // vld3.16 {d16-d18}, [ip]
.long 0xf3c72b3f // vbic.i16 d18, #65280
.long 0xe28f60ec // add r6, pc, #236
@@ -3237,14 +3233,14 @@ _sk_load_tables_rgb_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4ec060f // vld3.16 {d16[0],d17[0],d18[0]}, [ip]
.long 0xe35e0001 // cmp lr, #1
- .long 0x0affffc9 // beq 2c70 <sk_load_tables_rgb_u16_be_vfp4+0x28>
+ .long 0x0affffc9 // beq 2c60 <sk_load_tables_rgb_u16_be_vfp4+0x28>
.long 0xe28c2006 // add r2, ip, #6
.long 0xe35e0003 // cmp lr, #3
.long 0xf4e2064f // vld3.16 {d16[1],d17[1],d18[1]}, [r2]
- .long 0x3affffc5 // bcc 2c70 <sk_load_tables_rgb_u16_be_vfp4+0x28>
+ .long 0x3affffc5 // bcc 2c60 <sk_load_tables_rgb_u16_be_vfp4+0x28>
.long 0xe28c200c // add r2, ip, #12
.long 0xf4e2068f // vld3.16 {d16[2],d17[2],d18[2]}, [r2]
- .long 0xeaffffc2 // b 2c70 <sk_load_tables_rgb_u16_be_vfp4+0x28>
+ .long 0xeaffffc2 // b 2c60 <sk_load_tables_rgb_u16_be_vfp4+0x28>
.long 0xe320f000 // nop {0}
.long 0x3f800000 // .word 0x3f800000
.long 0x3f800000 // .word 0x3f800000
@@ -4285,7 +4281,7 @@ _sk_load_a8_vfp4:
.long 0xe35c0000 // cmp ip, #0
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
- .long 0x1a000012 // bne 3cf0 <sk_load_a8_vfp4+0x78>
+ .long 0x1a000012 // bne 3ce0 <sk_load_a8_vfp4+0x78>
.long 0xe5922000 // ldr r2, [r2]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -4307,12 +4303,12 @@ _sk_load_a8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000012 // beq 3d48 <sk_load_a8_vfp4+0xd0>
+ .long 0x0a000012 // beq 3d38 <sk_load_a8_vfp4+0xd0>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 3d20 <sk_load_a8_vfp4+0xa8>
+ .long 0x0a000005 // beq 3d10 <sk_load_a8_vfp4+0xa8>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe9 // bne 3cb8 <sk_load_a8_vfp4+0x40>
+ .long 0x1affffe9 // bne 3ca8 <sk_load_a8_vfp4+0x40>
.long 0xe3a04000 // mov r4, #0
.long 0xe5d23002 // ldrb r3, [r2, #2]
.long 0xee804bb0 // vdup.16 d16, r4
@@ -4326,12 +4322,12 @@ _sk_load_a8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffdb // b 3cb8 <sk_load_a8_vfp4+0x40>
+ .long 0xeaffffdb // b 3ca8 <sk_load_a8_vfp4+0x40>
.long 0xe3a03000 // mov r3, #0
.long 0xe5d22000 // ldrb r2, [r2]
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd6 // b 3cb8 <sk_load_a8_vfp4+0x40>
+ .long 0xeaffffd6 // b 3ca8 <sk_load_a8_vfp4+0x40>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -4360,7 +4356,7 @@ _sk_load_a8_dst_vfp4:
.long 0xf4430acf // vst1.64 {d16-d17}, [r3]
.long 0xe082300c // add r3, r2, ip
.long 0xe280c040 // add ip, r0, #64
- .long 0x1a000011 // bne 3e04 <sk_load_a8_dst_vfp4+0x94>
+ .long 0x1a000011 // bne 3df4 <sk_load_a8_dst_vfp4+0x94>
.long 0xe5932000 // ldr r2, [r3]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -4381,12 +4377,12 @@ _sk_load_a8_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe20e2003 // and r2, lr, #3
.long 0xe3520001 // cmp r2, #1
- .long 0x0a000012 // beq 3e5c <sk_load_a8_dst_vfp4+0xec>
+ .long 0x0a000012 // beq 3e4c <sk_load_a8_dst_vfp4+0xec>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3520002 // cmp r2, #2
- .long 0x0a000005 // beq 3e34 <sk_load_a8_dst_vfp4+0xc4>
+ .long 0x0a000005 // beq 3e24 <sk_load_a8_dst_vfp4+0xc4>
.long 0xe3520003 // cmp r2, #3
- .long 0x1affffea // bne 3dd0 <sk_load_a8_dst_vfp4+0x60>
+ .long 0x1affffea // bne 3dc0 <sk_load_a8_dst_vfp4+0x60>
.long 0xe3a05000 // mov r5, #0
.long 0xe5d32002 // ldrb r2, [r3, #2]
.long 0xee805bb0 // vdup.16 d16, r5
@@ -4400,12 +4396,12 @@ _sk_load_a8_dst_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffdc // b 3dd0 <sk_load_a8_dst_vfp4+0x60>
+ .long 0xeaffffdc // b 3dc0 <sk_load_a8_dst_vfp4+0x60>
.long 0xe5d32000 // ldrb r2, [r3]
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd7 // b 3dd0 <sk_load_a8_dst_vfp4+0x60>
+ .long 0xeaffffd7 // b 3dc0 <sk_load_a8_dst_vfp4+0x60>
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -4483,7 +4479,7 @@ _sk_store_a8_vfp4:
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
.long 0xf3f60220 // vmovn.i32 d16, q8
- .long 0x1a000005 // bne 3f98 <sk_store_a8_vfp4+0x58>
+ .long 0x1a000005 // bne 3f88 <sk_store_a8_vfp4+0x58>
.long 0xf3f20121 // vuzp.8 d16, d17
.long 0xf4c2080f // vst1.32 {d16[0]}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
@@ -4492,21 +4488,21 @@ _sk_store_a8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000a // beq 3fd0 <sk_store_a8_vfp4+0x90>
+ .long 0x0a00000a // beq 3fc0 <sk_store_a8_vfp4+0x90>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 3fbc <sk_store_a8_vfp4+0x7c>
+ .long 0x0a000003 // beq 3fac <sk_store_a8_vfp4+0x7c>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 3f88 <sk_store_a8_vfp4+0x48>
+ .long 0x1afffff4 // bne 3f78 <sk_store_a8_vfp4+0x48>
.long 0xeeb03bb0 // vmov.u16 r3, d16[2]
.long 0xe5c23002 // strb r3, [r2, #2]
.long 0xee903bf0 // vmov.u16 r3, d16[1]
.long 0xee904bb0 // vmov.u16 r4, d16[0]
.long 0xe5c23001 // strb r3, [r2, #1]
.long 0xe5c24000 // strb r4, [r2]
- .long 0xeaffffed // b 3f88 <sk_store_a8_vfp4+0x48>
+ .long 0xeaffffed // b 3f78 <sk_store_a8_vfp4+0x48>
.long 0xee903bb0 // vmov.u16 r3, d16[0]
.long 0xe5c23000 // strb r3, [r2]
- .long 0xeaffffea // b 3f88 <sk_store_a8_vfp4+0x48>
+ .long 0xeaffffea // b 3f78 <sk_store_a8_vfp4+0x48>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -4527,7 +4523,7 @@ _sk_load_g8_vfp4:
.long 0xe35c0000 // cmp ip, #0
.long 0xe0224392 // mla r2, r2, r3, r4
.long 0xe082200e // add r2, r2, lr
- .long 0x1a000013 // bne 406c <sk_load_g8_vfp4+0x7c>
+ .long 0x1a000013 // bne 405c <sk_load_g8_vfp4+0x7c>
.long 0xe5922000 // ldr r2, [r2]
.long 0xe58d2000 // str r2, [sp]
.long 0xe1a0200d // mov r2, sp
@@ -4550,12 +4546,12 @@ _sk_load_g8_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000012 // beq 40c4 <sk_load_g8_vfp4+0xd4>
+ .long 0x0a000012 // beq 40b4 <sk_load_g8_vfp4+0xd4>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 409c <sk_load_g8_vfp4+0xac>
+ .long 0x0a000005 // beq 408c <sk_load_g8_vfp4+0xac>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe8 // bne 4030 <sk_load_g8_vfp4+0x40>
+ .long 0x1affffe8 // bne 4020 <sk_load_g8_vfp4+0x40>
.long 0xe3a04000 // mov r4, #0
.long 0xe5d23002 // ldrb r3, [r2, #2]
.long 0xee804bb0 // vdup.16 d16, r4
@@ -4569,12 +4565,12 @@ _sk_load_g8_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffda // b 4030 <sk_load_g8_vfp4+0x40>
+ .long 0xeaffffda // b 4020 <sk_load_g8_vfp4+0x40>
.long 0xe3a03000 // mov r3, #0
.long 0xe5d22000 // ldrb r2, [r2]
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xee002bb0 // vmov.16 d16[0], r2
- .long 0xeaffffd5 // b 4030 <sk_load_g8_vfp4+0x40>
+ .long 0xeaffffd5 // b 4020 <sk_load_g8_vfp4+0x40>
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -4601,7 +4597,7 @@ _sk_load_g8_dst_vfp4:
.long 0xe0824003 // add r4, r2, r3
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a000015 // bne 4188 <sk_load_g8_dst_vfp4+0x90>
+ .long 0x1a000015 // bne 4178 <sk_load_g8_dst_vfp4+0x90>
.long 0xe5944000 // ldr r4, [r4]
.long 0xe58d4000 // str r4, [sp]
.long 0xe1a0400d // mov r4, sp
@@ -4626,12 +4622,12 @@ _sk_load_g8_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000012 // beq 41e0 <sk_load_g8_dst_vfp4+0xe8>
+ .long 0x0a000012 // beq 41d0 <sk_load_g8_dst_vfp4+0xe8>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 41b8 <sk_load_g8_dst_vfp4+0xc0>
+ .long 0x0a000005 // beq 41a8 <sk_load_g8_dst_vfp4+0xc0>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffe6 // bne 4144 <sk_load_g8_dst_vfp4+0x4c>
+ .long 0x1affffe6 // bne 4134 <sk_load_g8_dst_vfp4+0x4c>
.long 0xe3a06000 // mov r6, #0
.long 0xe5d45002 // ldrb r5, [r4, #2]
.long 0xee806bb0 // vdup.16 d16, r6
@@ -4645,12 +4641,12 @@ _sk_load_g8_dst_vfp4:
.long 0xf3f62124 // vuzp.16 d18, d20
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffd8 // b 4144 <sk_load_g8_dst_vfp4+0x4c>
+ .long 0xeaffffd8 // b 4134 <sk_load_g8_dst_vfp4+0x4c>
.long 0xe3a05000 // mov r5, #0
.long 0xe5d44000 // ldrb r4, [r4]
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xee004bb0 // vmov.16 d16[0], r4
- .long 0xeaffffd3 // b 4144 <sk_load_g8_dst_vfp4+0x4c>
+ .long 0xeaffffd3 // b 4134 <sk_load_g8_dst_vfp4+0x4c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -4729,7 +4725,7 @@ _sk_load_565_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082208e // add r2, r2, lr, lsl #1
- .long 0x1a00001b // bne 4378 <sk_load_565_vfp4+0xa0>
+ .long 0x1a00001b // bne 4368 <sk_load_565_vfp4+0xa0>
.long 0xf462074f // vld1.16 {d16}, [r2]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a02e7e // mov r2, #2016
@@ -4760,12 +4756,12 @@ _sk_load_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000011 // beq 43cc <sk_load_565_vfp4+0xf4>
+ .long 0x0a000011 // beq 43bc <sk_load_565_vfp4+0xf4>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 43a8 <sk_load_565_vfp4+0xd0>
+ .long 0x0a000005 // beq 4398 <sk_load_565_vfp4+0xd0>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffdc // bne 430c <sk_load_565_vfp4+0x34>
+ .long 0x1affffdc // bne 42fc <sk_load_565_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xe2823004 // add r3, r2, #4
@@ -4778,11 +4774,11 @@ _sk_load_565_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffcf // b 430c <sk_load_565_vfp4+0x34>
+ .long 0xeaffffcf // b 42fc <sk_load_565_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xf4e2041f // vld1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffcb // b 430c <sk_load_565_vfp4+0x34>
+ .long 0xeaffffcb // b 42fc <sk_load_565_vfp4+0x34>
.long 0xe320f000 // nop {0}
.long 0x37842108 // .word 0x37842108
.long 0x37842108 // .word 0x37842108
@@ -4819,7 +4815,7 @@ _sk_load_565_dst_vfp4:
.long 0xe0824083 // add r4, r2, r3, lsl #1
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00001f // bne 44dc <sk_load_565_dst_vfp4+0xbc>
+ .long 0x1a00001f // bne 44cc <sk_load_565_dst_vfp4+0xbc>
.long 0xf464074f // vld1.16 {d16}, [r4]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe3a04e7e // mov r4, #2016
@@ -4854,12 +4850,12 @@ _sk_load_565_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000011 // beq 4530 <sk_load_565_dst_vfp4+0x110>
+ .long 0x0a000011 // beq 4520 <sk_load_565_dst_vfp4+0x110>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 450c <sk_load_565_dst_vfp4+0xec>
+ .long 0x0a000005 // beq 44fc <sk_load_565_dst_vfp4+0xec>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffd8 // bne 4460 <sk_load_565_dst_vfp4+0x40>
+ .long 0x1affffd8 // bne 4450 <sk_load_565_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xe2845004 // add r5, r4, #4
@@ -4872,11 +4868,11 @@ _sk_load_565_dst_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffcb // b 4460 <sk_load_565_dst_vfp4+0x40>
+ .long 0xeaffffcb // b 4450 <sk_load_565_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16]
- .long 0xeaffffc7 // b 4460 <sk_load_565_dst_vfp4+0x40>
+ .long 0xeaffffc7 // b 4450 <sk_load_565_dst_vfp4+0x40>
.long 0x37842108 // .word 0x37842108
.long 0x37842108 // .word 0x37842108
.long 0x37842108 // .word 0x37842108
@@ -5000,7 +4996,7 @@ _sk_store_565_vfp4:
.long 0xf26401f0 // vorr q8, q10, q8
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf3f60220 // vmovn.i32 d16, q8
- .long 0x1a000004 // bne 471c <sk_store_565_vfp4+0x84>
+ .long 0x1a000004 // bne 470c <sk_store_565_vfp4+0x84>
.long 0xf442074f // vst1.16 {d16}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -5008,11 +5004,11 @@ _sk_store_565_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 475c <sk_store_565_vfp4+0xc4>
+ .long 0x0a00000c // beq 474c <sk_store_565_vfp4+0xc4>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 4740 <sk_store_565_vfp4+0xa8>
+ .long 0x0a000003 // beq 4730 <sk_store_565_vfp4+0xa8>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 470c <sk_store_565_vfp4+0x74>
+ .long 0x1afffff4 // bne 46fc <sk_store_565_vfp4+0x74>
.long 0xe2823004 // add r3, r2, #4
.long 0xf4c3049f // vst1.16 {d16[2]}, [r3 :16]
.long 0xee903bb0 // vmov.u16 r3, d16[0]
@@ -5021,9 +5017,9 @@ _sk_store_565_vfp4:
.long 0xee204b90 // vmov.32 d16[1], r4
.long 0xf3f60121 // vuzp.16 d16, d17
.long 0xf4c2080f // vst1.32 {d16[0]}, [r2]
- .long 0xeaffffeb // b 470c <sk_store_565_vfp4+0x74>
+ .long 0xeaffffeb // b 46fc <sk_store_565_vfp4+0x74>
.long 0xf4c2041f // vst1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffe9 // b 470c <sk_store_565_vfp4+0x74>
+ .long 0xeaffffe9 // b 46fc <sk_store_565_vfp4+0x74>
.long 0xe320f000 // nop {0}
.long 0x427c0000 // .word 0x427c0000
.long 0x427c0000 // .word 0x427c0000
@@ -5045,7 +5041,7 @@ _sk_load_4444_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082208e // add r2, r2, lr, lsl #1
- .long 0x1a00001e // bne 4824 <sk_load_4444_vfp4+0xac>
+ .long 0x1a00001e // bne 4814 <sk_load_4444_vfp4+0xac>
.long 0xf462074f // vld1.16 {d16}, [r2]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe28f20d0 // add r2, pc, #208
@@ -5079,12 +5075,12 @@ _sk_load_4444_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000011 // beq 4878 <sk_load_4444_vfp4+0x100>
+ .long 0x0a000011 // beq 4868 <sk_load_4444_vfp4+0x100>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 4854 <sk_load_4444_vfp4+0xdc>
+ .long 0x0a000005 // beq 4844 <sk_load_4444_vfp4+0xdc>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffd9 // bne 47ac <sk_load_4444_vfp4+0x34>
+ .long 0x1affffd9 // bne 479c <sk_load_4444_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xe2823004 // add r3, r2, #4
@@ -5097,11 +5093,11 @@ _sk_load_4444_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffcc // b 47ac <sk_load_4444_vfp4+0x34>
+ .long 0xeaffffcc // b 479c <sk_load_4444_vfp4+0x34>
.long 0xe3a03000 // mov r3, #0
.long 0xee803bb0 // vdup.16 d16, r3
.long 0xf4e2041f // vld1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffc8 // b 47ac <sk_load_4444_vfp4+0x34>
+ .long 0xeaffffc8 // b 479c <sk_load_4444_vfp4+0x34>
.long 0x3b888889 // .word 0x3b888889
.long 0x3b888889 // .word 0x3b888889
.long 0x3b888889 // .word 0x3b888889
@@ -5137,7 +5133,7 @@ _sk_load_4444_dst_vfp4:
.long 0xe0824083 // add r4, r2, r3, lsl #1
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a000023 // bne 4994 <sk_load_4444_dst_vfp4+0xcc>
+ .long 0x1a000023 // bne 4984 <sk_load_4444_dst_vfp4+0xcc>
.long 0xf464074f // vld1.16 {d16}, [r4]
.long 0xf3d00a30 // vmovl.u16 q8, d16
.long 0xe28f40e4 // add r4, pc, #228
@@ -5176,12 +5172,12 @@ _sk_load_4444_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a000011 // beq 49e8 <sk_load_4444_dst_vfp4+0x120>
+ .long 0x0a000011 // beq 49d8 <sk_load_4444_dst_vfp4+0x120>
.long 0xf2c00010 // vmov.i32 d16, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 49c4 <sk_load_4444_dst_vfp4+0xfc>
+ .long 0x0a000005 // beq 49b4 <sk_load_4444_dst_vfp4+0xfc>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffd4 // bne 4908 <sk_load_4444_dst_vfp4+0x40>
+ .long 0x1affffd4 // bne 48f8 <sk_load_4444_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xe2845004 // add r5, r4, #4
@@ -5194,11 +5190,11 @@ _sk_load_4444_dst_vfp4:
.long 0xf3f62121 // vuzp.16 d18, d17
.long 0xf2f004a2 // vext.8 d16, d16, d18, #4
.long 0xf2f004a0 // vext.8 d16, d16, d16, #4
- .long 0xeaffffc7 // b 4908 <sk_load_4444_dst_vfp4+0x40>
+ .long 0xeaffffc7 // b 48f8 <sk_load_4444_dst_vfp4+0x40>
.long 0xe3a05000 // mov r5, #0
.long 0xee805bb0 // vdup.16 d16, r5
.long 0xf4e4041f // vld1.16 {d16[0]}, [r4 :16]
- .long 0xeaffffc3 // b 4908 <sk_load_4444_dst_vfp4+0x40>
+ .long 0xeaffffc3 // b 48f8 <sk_load_4444_dst_vfp4+0x40>
.long 0x37888889 // .word 0x37888889
.long 0x37888889 // .word 0x37888889
.long 0x37888889 // .word 0x37888889
@@ -5333,7 +5329,7 @@ _sk_store_4444_vfp4:
.long 0xf26001f6 // vorr q8, q8, q11
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf3f60220 // vmovn.i32 d16, q8
- .long 0x1a000004 // bne 4c00 <sk_store_4444_vfp4+0x90>
+ .long 0x1a000004 // bne 4bf0 <sk_store_4444_vfp4+0x90>
.long 0xf442074f // vst1.16 {d16}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -5341,11 +5337,11 @@ _sk_store_4444_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 4c40 <sk_store_4444_vfp4+0xd0>
+ .long 0x0a00000c // beq 4c30 <sk_store_4444_vfp4+0xd0>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 4c24 <sk_store_4444_vfp4+0xb4>
+ .long 0x0a000003 // beq 4c14 <sk_store_4444_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 4bf0 <sk_store_4444_vfp4+0x80>
+ .long 0x1afffff4 // bne 4be0 <sk_store_4444_vfp4+0x80>
.long 0xe2823004 // add r3, r2, #4
.long 0xf4c3049f // vst1.16 {d16[2]}, [r3 :16]
.long 0xee903bb0 // vmov.u16 r3, d16[0]
@@ -5354,9 +5350,9 @@ _sk_store_4444_vfp4:
.long 0xee204b90 // vmov.32 d16[1], r4
.long 0xf3f60121 // vuzp.16 d16, d17
.long 0xf4c2080f // vst1.32 {d16[0]}, [r2]
- .long 0xeaffffeb // b 4bf0 <sk_store_4444_vfp4+0x80>
+ .long 0xeaffffeb // b 4be0 <sk_store_4444_vfp4+0x80>
.long 0xf4c2041f // vst1.16 {d16[0]}, [r2 :16]
- .long 0xeaffffe9 // b 4bf0 <sk_store_4444_vfp4+0x80>
+ .long 0xeaffffe9 // b 4be0 <sk_store_4444_vfp4+0x80>
HIDDEN _sk_load_8888_vfp4
.globl _sk_load_8888_vfp4
@@ -5372,7 +5368,7 @@ _sk_load_8888_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082210e // add r2, r2, lr, lsl #2
- .long 0x1a000015 // bne 4ccc <sk_load_8888_vfp4+0x84>
+ .long 0x1a000015 // bne 4cbc <sk_load_8888_vfp4+0x84>
.long 0xf4620a8f // vld1.32 {d16-d17}, [r2]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f209c // add r2, pc, #156
@@ -5397,12 +5393,12 @@ _sk_load_8888_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 4d0c <sk_load_8888_vfp4+0xc4>
+ .long 0x0a00000c // beq 4cfc <sk_load_8888_vfp4+0xc4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 4cfc <sk_load_8888_vfp4+0xb4>
+ .long 0x0a000005 // beq 4cec <sk_load_8888_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe2 // bne 4c78 <sk_load_8888_vfp4+0x30>
+ .long 0x1affffe2 // bne 4c68 <sk_load_8888_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xe2823008 // add r3, r2, #8
@@ -5410,11 +5406,11 @@ _sk_load_8888_vfp4:
.long 0xedd22b00 // vldr d18, [r2]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffda // b 4c78 <sk_load_8888_vfp4+0x30>
+ .long 0xeaffffda // b 4c68 <sk_load_8888_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffd6 // b 4c78 <sk_load_8888_vfp4+0x30>
+ .long 0xeaffffd6 // b 4c68 <sk_load_8888_vfp4+0x30>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -5438,7 +5434,7 @@ _sk_load_8888_dst_vfp4:
.long 0xe0824103 // add r4, r2, r3, lsl #2
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00001a // bne 4dd4 <sk_load_8888_dst_vfp4+0xa4>
+ .long 0x1a00001a // bne 4dc4 <sk_load_8888_dst_vfp4+0xa4>
.long 0xf4640a8f // vld1.32 {d16-d17}, [r4]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f40b0 // add r4, pc, #176
@@ -5468,12 +5464,12 @@ _sk_load_8888_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a00000c // beq 4e14 <sk_load_8888_dst_vfp4+0xe4>
+ .long 0x0a00000c // beq 4e04 <sk_load_8888_dst_vfp4+0xe4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 4e04 <sk_load_8888_dst_vfp4+0xd4>
+ .long 0x0a000005 // beq 4df4 <sk_load_8888_dst_vfp4+0xd4>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffdd // bne 4d6c <sk_load_8888_dst_vfp4+0x3c>
+ .long 0x1affffdd // bne 4d5c <sk_load_8888_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xe2845008 // add r5, r4, #8
@@ -5481,11 +5477,11 @@ _sk_load_8888_dst_vfp4:
.long 0xedd42b00 // vldr d18, [r4]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffd5 // b 4d6c <sk_load_8888_dst_vfp4+0x3c>
+ .long 0xeaffffd5 // b 4d5c <sk_load_8888_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xf4e4083f // vld1.32 {d16[0]}, [r4 :32]
- .long 0xeaffffd1 // b 4d6c <sk_load_8888_dst_vfp4+0x3c>
+ .long 0xeaffffd1 // b 4d5c <sk_load_8888_dst_vfp4+0x3c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -5587,7 +5583,7 @@ _sk_store_8888_vfp4:
.long 0xf2f84576 // vshl.s32 q10, q11, #24
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf26001f4 // vorr q8, q8, q10
- .long 0x1a000004 // bne 4fa8 <sk_store_8888_vfp4+0x90>
+ .long 0x1a000004 // bne 4f98 <sk_store_8888_vfp4+0x90>
.long 0xf4420a8f // vst1.32 {d16-d17}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -5595,17 +5591,17 @@ _sk_store_8888_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000007 // beq 4fd4 <sk_store_8888_vfp4+0xbc>
+ .long 0x0a000007 // beq 4fc4 <sk_store_8888_vfp4+0xbc>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 4fcc <sk_store_8888_vfp4+0xb4>
+ .long 0x0a000003 // beq 4fbc <sk_store_8888_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 4f98 <sk_store_8888_vfp4+0x80>
+ .long 0x1afffff4 // bne 4f88 <sk_store_8888_vfp4+0x80>
.long 0xe2823008 // add r3, r2, #8
.long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32]
.long 0xedc20b00 // vstr d16, [r2]
- .long 0xeafffff0 // b 4f98 <sk_store_8888_vfp4+0x80>
+ .long 0xeafffff0 // b 4f88 <sk_store_8888_vfp4+0x80>
.long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffee // b 4f98 <sk_store_8888_vfp4+0x80>
+ .long 0xeaffffee // b 4f88 <sk_store_8888_vfp4+0x80>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -5626,7 +5622,7 @@ _sk_load_bgra_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082210e // add r2, r2, lr, lsl #2
- .long 0x1a000015 // bne 5074 <sk_load_bgra_vfp4+0x84>
+ .long 0x1a000015 // bne 5064 <sk_load_bgra_vfp4+0x84>
.long 0xf4620a8f // vld1.32 {d16-d17}, [r2]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f209c // add r2, pc, #156
@@ -5651,12 +5647,12 @@ _sk_load_bgra_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a00000c // beq 50b4 <sk_load_bgra_vfp4+0xc4>
+ .long 0x0a00000c // beq 50a4 <sk_load_bgra_vfp4+0xc4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000005 // beq 50a4 <sk_load_bgra_vfp4+0xb4>
+ .long 0x0a000005 // beq 5094 <sk_load_bgra_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1affffe2 // bne 5020 <sk_load_bgra_vfp4+0x30>
+ .long 0x1affffe2 // bne 5010 <sk_load_bgra_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xe2823008 // add r3, r2, #8
@@ -5664,11 +5660,11 @@ _sk_load_bgra_vfp4:
.long 0xedd22b00 // vldr d18, [r2]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffda // b 5020 <sk_load_bgra_vfp4+0x30>
+ .long 0xeaffffda // b 5010 <sk_load_bgra_vfp4+0x30>
.long 0xe3a03000 // mov r3, #0
.long 0xeea03b90 // vdup.32 q8, r3
.long 0xf4e2083f // vld1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffd6 // b 5020 <sk_load_bgra_vfp4+0x30>
+ .long 0xeaffffd6 // b 5010 <sk_load_bgra_vfp4+0x30>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -5692,7 +5688,7 @@ _sk_load_bgra_dst_vfp4:
.long 0xe0824103 // add r4, r2, r3, lsl #2
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00001a // bne 517c <sk_load_bgra_dst_vfp4+0xa4>
+ .long 0x1a00001a // bne 516c <sk_load_bgra_dst_vfp4+0xa4>
.long 0xf4640a8f // vld1.32 {d16-d17}, [r4]
.long 0xf3c7205f // vmov.i32 q9, #255
.long 0xe28f40b0 // add r4, pc, #176
@@ -5722,12 +5718,12 @@ _sk_load_bgra_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xe2065003 // and r5, r6, #3
.long 0xe3550001 // cmp r5, #1
- .long 0x0a00000c // beq 51bc <sk_load_bgra_dst_vfp4+0xe4>
+ .long 0x0a00000c // beq 51ac <sk_load_bgra_dst_vfp4+0xe4>
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe3550002 // cmp r5, #2
- .long 0x0a000005 // beq 51ac <sk_load_bgra_dst_vfp4+0xd4>
+ .long 0x0a000005 // beq 519c <sk_load_bgra_dst_vfp4+0xd4>
.long 0xe3550003 // cmp r5, #3
- .long 0x1affffdd // bne 5114 <sk_load_bgra_dst_vfp4+0x3c>
+ .long 0x1affffdd // bne 5104 <sk_load_bgra_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xe2845008 // add r5, r4, #8
@@ -5735,11 +5731,11 @@ _sk_load_bgra_dst_vfp4:
.long 0xedd42b00 // vldr d18, [r4]
.long 0xf2f008e2 // vext.8 q8, q8, q9, #8
.long 0xf2f008e0 // vext.8 q8, q8, q8, #8
- .long 0xeaffffd5 // b 5114 <sk_load_bgra_dst_vfp4+0x3c>
+ .long 0xeaffffd5 // b 5104 <sk_load_bgra_dst_vfp4+0x3c>
.long 0xe3a05000 // mov r5, #0
.long 0xeea05b90 // vdup.32 q8, r5
.long 0xf4e4083f // vld1.32 {d16[0]}, [r4 :32]
- .long 0xeaffffd1 // b 5114 <sk_load_bgra_dst_vfp4+0x3c>
+ .long 0xeaffffd1 // b 5104 <sk_load_bgra_dst_vfp4+0x3c>
.long 0xe320f000 // nop {0}
.long 0x3b808081 // .word 0x3b808081
.long 0x3b808081 // .word 0x3b808081
@@ -5841,7 +5837,7 @@ _sk_store_bgra_vfp4:
.long 0xf2f84576 // vshl.s32 q10, q11, #24
.long 0xf26001f2 // vorr q8, q8, q9
.long 0xf26001f4 // vorr q8, q8, q10
- .long 0x1a000004 // bne 5350 <sk_store_bgra_vfp4+0x90>
+ .long 0x1a000004 // bne 5340 <sk_store_bgra_vfp4+0x90>
.long 0xf4420a8f // vst1.32 {d16-d17}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -5849,17 +5845,17 @@ _sk_store_bgra_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe20c3003 // and r3, ip, #3
.long 0xe3530001 // cmp r3, #1
- .long 0x0a000007 // beq 537c <sk_store_bgra_vfp4+0xbc>
+ .long 0x0a000007 // beq 536c <sk_store_bgra_vfp4+0xbc>
.long 0xe3530002 // cmp r3, #2
- .long 0x0a000003 // beq 5374 <sk_store_bgra_vfp4+0xb4>
+ .long 0x0a000003 // beq 5364 <sk_store_bgra_vfp4+0xb4>
.long 0xe3530003 // cmp r3, #3
- .long 0x1afffff4 // bne 5340 <sk_store_bgra_vfp4+0x80>
+ .long 0x1afffff4 // bne 5330 <sk_store_bgra_vfp4+0x80>
.long 0xe2823008 // add r3, r2, #8
.long 0xf4c3183f // vst1.32 {d17[0]}, [r3 :32]
.long 0xedc20b00 // vstr d16, [r2]
- .long 0xeafffff0 // b 5340 <sk_store_bgra_vfp4+0x80>
+ .long 0xeafffff0 // b 5330 <sk_store_bgra_vfp4+0x80>
.long 0xf4c2083f // vst1.32 {d16[0]}, [r2 :32]
- .long 0xeaffffee // b 5340 <sk_store_bgra_vfp4+0x80>
+ .long 0xeaffffee // b 5330 <sk_store_bgra_vfp4+0x80>
.long 0xe320f000 // nop {0}
.long 0x437f0000 // .word 0x437f0000
.long 0x437f0000 // .word 0x437f0000
@@ -5880,7 +5876,7 @@ _sk_load_f16_vfp4:
.long 0xe0020293 // mul r2, r3, r2
.long 0xe0842182 // add r2, r4, r2, lsl #3
.long 0xe082318e // add r3, r2, lr, lsl #3
- .long 0x1a000008 // bne 53e8 <sk_load_f16_vfp4+0x50>
+ .long 0x1a000008 // bne 53d8 <sk_load_f16_vfp4+0x50>
.long 0xf463004f // vld4.16 {d16-d19}, [r3]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xf3b60720 // vcvt.f32.f16 q0, d16
@@ -5892,14 +5888,14 @@ _sk_load_f16_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4e3070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0afffff4 // beq 53c8 <sk_load_f16_vfp4+0x30>
+ .long 0x0afffff4 // beq 53b8 <sk_load_f16_vfp4+0x30>
.long 0xe2832008 // add r2, r3, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3afffff0 // bcc 53c8 <sk_load_f16_vfp4+0x30>
+ .long 0x3afffff0 // bcc 53b8 <sk_load_f16_vfp4+0x30>
.long 0xe2832010 // add r2, r3, #16
.long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeaffffed // b 53c8 <sk_load_f16_vfp4+0x30>
+ .long 0xeaffffed // b 53b8 <sk_load_f16_vfp4+0x30>
HIDDEN _sk_load_f16_dst_vfp4
.globl _sk_load_f16_dst_vfp4
@@ -5918,7 +5914,7 @@ _sk_load_f16_dst_vfp4:
.long 0xe0825183 // add r5, r2, r3, lsl #3
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00000d // bne 5480 <sk_load_f16_dst_vfp4+0x70>
+ .long 0x1a00000d // bne 5470 <sk_load_f16_dst_vfp4+0x70>
.long 0xf465004f // vld4.16 {d16-d19}, [r5]
.long 0xf3f64720 // vcvt.f32.f16 q10, d16
.long 0xf3f66721 // vcvt.f32.f16 q11, d17
@@ -5935,14 +5931,14 @@ _sk_load_f16_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xf4e5070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r5]
.long 0xe3560001 // cmp r6, #1
- .long 0x0affffef // beq 544c <sk_load_f16_dst_vfp4+0x3c>
+ .long 0x0affffef // beq 543c <sk_load_f16_dst_vfp4+0x3c>
.long 0xe2854008 // add r4, r5, #8
.long 0xe3560003 // cmp r6, #3
.long 0xf4e4074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r4]
- .long 0x3affffeb // bcc 544c <sk_load_f16_dst_vfp4+0x3c>
+ .long 0x3affffeb // bcc 543c <sk_load_f16_dst_vfp4+0x3c>
.long 0xe2854010 // add r4, r5, #16
.long 0xf4e4078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r4]
- .long 0xeaffffe8 // b 544c <sk_load_f16_dst_vfp4+0x3c>
+ .long 0xeaffffe8 // b 543c <sk_load_f16_dst_vfp4+0x3c>
HIDDEN _sk_gather_f16_vfp4
.globl _sk_gather_f16_vfp4
@@ -6015,7 +6011,7 @@ _sk_store_f16_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842182 // add r2, r4, r2, lsl #3
.long 0xe082218e // add r2, r2, lr, lsl #3
- .long 0x1a000004 // bne 55b8 <sk_store_f16_vfp4+0x50>
+ .long 0x1a000004 // bne 55a8 <sk_store_f16_vfp4+0x50>
.long 0xf442004f // vst4.16 {d16-d19}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -6023,14 +6019,14 @@ _sk_store_f16_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe35c0001 // cmp ip, #1
.long 0xf4c2070f // vst4.16 {d16[0],d17[0],d18[0],d19[0]}, [r2]
- .long 0x0afffff8 // beq 55a8 <sk_store_f16_vfp4+0x40>
+ .long 0x0afffff8 // beq 5598 <sk_store_f16_vfp4+0x40>
.long 0xe2823008 // add r3, r2, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4c3074f // vst4.16 {d16[1],d17[1],d18[1],d19[1]}, [r3]
- .long 0x3afffff4 // bcc 55a8 <sk_store_f16_vfp4+0x40>
+ .long 0x3afffff4 // bcc 5598 <sk_store_f16_vfp4+0x40>
.long 0xe2822010 // add r2, r2, #16
.long 0xf4c2078f // vst4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeafffff1 // b 55a8 <sk_store_f16_vfp4+0x40>
+ .long 0xeafffff1 // b 5598 <sk_store_f16_vfp4+0x40>
HIDDEN _sk_load_u16_be_vfp4
.globl _sk_load_u16_be_vfp4
@@ -6046,7 +6042,7 @@ _sk_load_u16_be_vfp4:
.long 0xe0020293 // mul r2, r3, r2
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe082318e // add r3, r2, lr, lsl #3
- .long 0x1a00001e // bne 5688 <sk_load_u16_be_vfp4+0xa8>
+ .long 0x1a00001e // bne 5678 <sk_load_u16_be_vfp4+0xa8>
.long 0xf463004f // vld4.16 {d16-d19}, [r3]
.long 0xf3d84030 // vshr.u16 d20, d16, #8
.long 0xe28f2094 // add r2, pc, #148
@@ -6080,14 +6076,14 @@ _sk_load_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4e3070f // vld4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0affffde // beq 5610 <sk_load_u16_be_vfp4+0x30>
+ .long 0x0affffde // beq 5600 <sk_load_u16_be_vfp4+0x30>
.long 0xe2832008 // add r2, r3, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4e2074f // vld4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3affffda // bcc 5610 <sk_load_u16_be_vfp4+0x30>
+ .long 0x3affffda // bcc 5600 <sk_load_u16_be_vfp4+0x30>
.long 0xe2832010 // add r2, r3, #16
.long 0xf4e2078f // vld4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeaffffd7 // b 5610 <sk_load_u16_be_vfp4+0x30>
+ .long 0xeaffffd7 // b 5600 <sk_load_u16_be_vfp4+0x30>
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
@@ -6108,7 +6104,7 @@ _sk_load_rgb_u16_be_vfp4:
.long 0xe08e308e // add r3, lr, lr, lsl #1
.long 0xe0842082 // add r2, r4, r2, lsl #1
.long 0xe0823083 // add r3, r2, r3, lsl #1
- .long 0x1a00001a // bne 575c <sk_load_rgb_u16_be_vfp4+0x9c>
+ .long 0x1a00001a // bne 574c <sk_load_rgb_u16_be_vfp4+0x9c>
.long 0xf463044f // vld3.16 {d16-d18}, [r3]
.long 0xf3d84030 // vshr.u16 d20, d16, #8
.long 0xe28f2088 // add r2, pc, #136
@@ -6138,14 +6134,14 @@ _sk_load_rgb_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4e3060f // vld3.16 {d16[0],d17[0],d18[0]}, [r3]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0affffe2 // beq 56f4 <sk_load_rgb_u16_be_vfp4+0x34>
+ .long 0x0affffe2 // beq 56e4 <sk_load_rgb_u16_be_vfp4+0x34>
.long 0xe2832006 // add r2, r3, #6
.long 0xe35c0003 // cmp ip, #3
.long 0xf4e2064f // vld3.16 {d16[1],d17[1],d18[1]}, [r2]
- .long 0x3affffde // bcc 56f4 <sk_load_rgb_u16_be_vfp4+0x34>
+ .long 0x3affffde // bcc 56e4 <sk_load_rgb_u16_be_vfp4+0x34>
.long 0xe283200c // add r2, r3, #12
.long 0xf4e2068f // vld3.16 {d16[2],d17[2],d18[2]}, [r2]
- .long 0xeaffffdb // b 56f4 <sk_load_rgb_u16_be_vfp4+0x34>
+ .long 0xeaffffdb // b 56e4 <sk_load_rgb_u16_be_vfp4+0x34>
.long 0xe320f000 // nop {0}
.long 0x37800080 // .word 0x37800080
.long 0x37800080 // .word 0x37800080
@@ -6200,7 +6196,7 @@ _sk_store_u16_be_vfp4:
.long 0xf2d84534 // vshl.s16 d20, d20, #8
.long 0xf26811b7 // vorr d17, d24, d23
.long 0xf26401b9 // vorr d16, d20, d25
- .long 0x1a000004 // bne 5860 <sk_store_u16_be_vfp4+0xb8>
+ .long 0x1a000004 // bne 5850 <sk_store_u16_be_vfp4+0xb8>
.long 0xf443004f // vst4.16 {d16-d19}, [r3]
.long 0xe5912004 // ldr r2, [r1, #4]
.long 0xe2811008 // add r1, r1, #8
@@ -6208,14 +6204,14 @@ _sk_store_u16_be_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe35c0001 // cmp ip, #1
.long 0xf4c3070f // vst4.16 {d16[0],d17[0],d18[0],d19[0]}, [r3]
- .long 0x0afffff8 // beq 5850 <sk_store_u16_be_vfp4+0xa8>
+ .long 0x0afffff8 // beq 5840 <sk_store_u16_be_vfp4+0xa8>
.long 0xe2832008 // add r2, r3, #8
.long 0xe35c0003 // cmp ip, #3
.long 0xf4c2074f // vst4.16 {d16[1],d17[1],d18[1],d19[1]}, [r2]
- .long 0x3afffff4 // bcc 5850 <sk_store_u16_be_vfp4+0xa8>
+ .long 0x3afffff4 // bcc 5840 <sk_store_u16_be_vfp4+0xa8>
.long 0xe2832010 // add r2, r3, #16
.long 0xf4c2078f // vst4.16 {d16[2],d17[2],d18[2],d19[2]}, [r2]
- .long 0xeafffff1 // b 5850 <sk_store_u16_be_vfp4+0xa8>
+ .long 0xeafffff1 // b 5840 <sk_store_u16_be_vfp4+0xa8>
.long 0x477fff00 // .word 0x477fff00
.long 0x477fff00 // .word 0x477fff00
.long 0x477fff00 // .word 0x477fff00
@@ -6235,7 +6231,7 @@ _sk_load_f32_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082220e // add r2, r2, lr, lsl #4
- .long 0x1a000009 // bne 58ec <sk_load_f32_vfp4+0x54>
+ .long 0x1a000009 // bne 58dc <sk_load_f32_vfp4+0x54>
.long 0xf462018d // vld4.32 {d16,d18,d20,d22}, [r2]!
.long 0xf462118f // vld4.32 {d17,d19,d21,d23}, [r2]
.long 0xf22001f0 // vorr q0, q8, q8
@@ -6248,14 +6244,14 @@ _sk_load_f32_vfp4:
.long 0xe12fff12 // bx r2
.long 0xf4a20b4f // vld4.32 {d0[0],d2[0],d4[0],d6[0]}, [r2]
.long 0xe35c0001 // cmp ip, #1
- .long 0x0afffff8 // beq 58dc <sk_load_f32_vfp4+0x44>
+ .long 0x0afffff8 // beq 58cc <sk_load_f32_vfp4+0x44>
.long 0xe2823010 // add r3, r2, #16
.long 0xe35c0003 // cmp ip, #3
.long 0xf4a30bcf // vld4.32 {d0[1],d2[1],d4[1],d6[1]}, [r3]
- .long 0x3afffff4 // bcc 58dc <sk_load_f32_vfp4+0x44>
+ .long 0x3afffff4 // bcc 58cc <sk_load_f32_vfp4+0x44>
.long 0xe2822020 // add r2, r2, #32
.long 0xf4a21b4f // vld4.32 {d1[0],d3[0],d5[0],d7[0]}, [r2]
- .long 0xeafffff1 // b 58dc <sk_load_f32_vfp4+0x44>
+ .long 0xeafffff1 // b 58cc <sk_load_f32_vfp4+0x44>
HIDDEN _sk_load_f32_dst_vfp4
.globl _sk_load_f32_dst_vfp4
@@ -6274,7 +6270,7 @@ _sk_load_f32_dst_vfp4:
.long 0xe0824203 // add r4, r2, r3, lsl #4
.long 0xe2802020 // add r2, r0, #32
.long 0xe2803010 // add r3, r0, #16
- .long 0x1a00000e // bne 5988 <sk_load_f32_dst_vfp4+0x74>
+ .long 0x1a00000e // bne 5978 <sk_load_f32_dst_vfp4+0x74>
.long 0xf464818d // vld4.32 {d24,d26,d28,d30}, [r4]!
.long 0xf464918f // vld4.32 {d25,d27,d29,d31}, [r4]
.long 0xf26801f8 // vorr q8, q12, q12
@@ -6292,14 +6288,14 @@ _sk_load_f32_dst_vfp4:
.long 0xe12fff13 // bx r3
.long 0xf4e40b4f // vld4.32 {d16[0],d18[0],d20[0],d22[0]}, [r4]
.long 0xe3560001 // cmp r6, #1
- .long 0x0afffff3 // beq 5964 <sk_load_f32_dst_vfp4+0x50>
+ .long 0x0afffff3 // beq 5954 <sk_load_f32_dst_vfp4+0x50>
.long 0xe2845010 // add r5, r4, #16
.long 0xe3560003 // cmp r6, #3
.long 0xf4e50bcf // vld4.32 {d16[1],d18[1],d20[1],d22[1]}, [r5]
- .long 0x3affffef // bcc 5964 <sk_load_f32_dst_vfp4+0x50>
+ .long 0x3affffef // bcc 5954 <sk_load_f32_dst_vfp4+0x50>
.long 0xe2844020 // add r4, r4, #32
.long 0xf4e41b4f // vld4.32 {d17[0],d19[0],d21[0],d23[0]}, [r4]
- .long 0xeaffffec // b 5964 <sk_load_f32_dst_vfp4+0x50>
+ .long 0xeaffffec // b 5954 <sk_load_f32_dst_vfp4+0x50>
HIDDEN _sk_store_f32_vfp4
.globl _sk_store_f32_vfp4
@@ -6315,7 +6311,7 @@ _sk_store_f32_vfp4:
.long 0xe0020392 // mul r2, r2, r3
.long 0xe0842102 // add r2, r4, r2, lsl #2
.long 0xe082220e // add r2, r2, lr, lsl #4
- .long 0x1a000005 // bne 59f4 <sk_store_f32_vfp4+0x44>
+ .long 0x1a000005 // bne 59e4 <sk_store_f32_vfp4+0x44>
.long 0xf402018d // vst4.32 {d0,d2,d4,d6}, [r2]!
.long 0xf402118f // vst4.32 {d1,d3,d5,d7}, [r2]
.long 0xe5912004 // ldr r2, [r1, #4]
@@ -6324,14 +6320,14 @@ _sk_store_f32_vfp4:
.long 0xe12fff12 // bx r2
.long 0xe35c0001 // cmp ip, #1
.long 0xf4820b4f // vst4.32 {d0[0],d2[0],d4[0],d6[0]}, [r2]
- .long 0x0afffff8 // beq 59e4 <sk_store_f32_vfp4+0x34>
+ .long 0x0afffff8 // beq 59d4 <sk_store_f32_vfp4+0x34>
.long 0xe2823010 // add r3, r2, #16
.long 0xe35c0003 // cmp ip, #3
.long 0xf4830bcf // vst4.32 {d0[1],d2[1],d4[1],d6[1]}, [r3]
- .long 0x3afffff4 // bcc 59e4 <sk_store_f32_vfp4+0x34>
+ .long 0x3afffff4 // bcc 59d4 <sk_store_f32_vfp4+0x34>
.long 0xe2822020 // add r2, r2, #32
.long 0xf4821b4f // vst4.32 {d1[0],d3[0],d5[0],d7[0]}, [r2]
- .long 0xeafffff1 // b 59e4 <sk_store_f32_vfp4+0x34>
+ .long 0xeafffff1 // b 59d4 <sk_store_f32_vfp4+0x34>
.long 0xe320f000 // nop {0}
HIDDEN _sk_repeat_x_vfp4
@@ -6978,7 +6974,7 @@ _sk_gradient_vfp4:
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe5923000 // ldr r3, [r2]
.long 0xe3530002 // cmp r3, #2
- .long 0x3a00000a // bcc 62fc <sk_gradient_vfp4+0x54>
+ .long 0x3a00000a // bcc 62ec <sk_gradient_vfp4+0x54>
.long 0xe5927024 // ldr r7, [r2, #36]
.long 0xf2c04051 // vmov.i32 q10, #1
.long 0xf2c00050 // vmov.i32 q8, #0
@@ -6989,7 +6985,7 @@ _sk_gradient_vfp4:
.long 0xf3468ee8 // vcge.f32 q12, q11, q12
.long 0xf35481f2 // vbsl q12, q10, q9
.long 0xf26008e8 // vadd.i32 q8, q8, q12
- .long 0x1afffff9 // bne 62e4 <sk_gradient_vfp4+0x3c>
+ .long 0x1afffff9 // bne 62d4 <sk_gradient_vfp4+0x3c>
.long 0xee314b90 // vmov.32 r4, d17[1]
.long 0xe5926010 // ldr r6, [r2, #16]
.long 0xee11cb90 // vmov.32 ip, d17[0]
@@ -8133,7 +8129,7 @@ _sk_clut_3D_vfp4:
.long 0xe0835105 // add r5, r3, r5, lsl #2
.long 0xedd55a00 // vldr s11, [r5]
.long 0xee325b90 // vmov.32 r5, d18[1]
- .long 0xea000004 // b 7310 <sk_clut_3D_vfp4+0x508>
+ .long 0xea000004 // b 7300 <sk_clut_3D_vfp4+0x508>
.long 0xe320f000 // nop {0}
.long 0x3f7ff972 // .word 0x3f7ff972
.long 0x3f7ff972 // .word 0x3f7ff972
@@ -8650,7 +8646,7 @@ _sk_clut_4D_vfp4:
.long 0xf2802051 // vmov.i32 q1, #1
.long 0xf22e29e0 // vmla.i32 q1, q15, q8
.long 0xedd20a00 // vldr s1, [r2]
- .long 0xea000004 // b 7b10 <sk_clut_4D_vfp4+0x528>
+ .long 0xea000004 // b 7b00 <sk_clut_4D_vfp4+0x528>
.long 0xe320f000 // nop {0}
.long 0x3f7ff972 // .word 0x3f7ff972
.long 0x3f7ff972 // .word 0x3f7ff972
@@ -9461,14 +9457,15 @@ HIDDEN _sk_seed_shader_skx
.globl _sk_seed_shader_skx
FUNCTION(_sk_seed_shader_skx)
_sk_seed_shader_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,242,125,40,124,194 // vpbroadcastd %edx,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,240,35,3,0 // vaddps 0x323f0(%rip),%ymm0,%ymm0 # 324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x2b4>
+ .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,88,13,160,41,3,0 // vaddps 0x329a0(%rip){1to8},%ymm1,%ymm1 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 98,241,116,56,88,13,210,35,3,0 // vaddps 0x323d2(%rip){1to8},%ymm1,%ymm1 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,153,41,3,0 // vbroadcastss 0x32999(%rip),%ymm2 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,21,203,35,3,0 // vbroadcastss 0x323cb(%rip),%ymm2 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -9482,16 +9479,16 @@ FUNCTION(_sk_dither_skx)
_sk_dither_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8
- .byte 197,61,254,5,203,35,3,0 // vpaddd 0x323cb(%rip),%ymm8,%ymm8 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
+ .byte 197,61,254,5,77,37,3,0 // vpaddd 0x3254d(%rip),%ymm8,%ymm8 # 32680 <_sk_srcover_rgba_8888_sse2_lowp+0x458>
.byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,99,41,3,0 // vpbroadcastd 0x32963(%rip),%ymm10 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,88,21,149,35,3,0 // vpbroadcastd 0x32395(%rip),%ymm10 # 324dc <_sk_srcover_rgba_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,72,41,3,0 // vpbroadcastd 0x32948(%rip),%ymm12 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
- .byte 196,98,125,88,45,67,41,3,0 // vpbroadcastd 0x32943(%rip),%ymm13 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,88,37,122,35,3,0 // vpbroadcastd 0x3237a(%rip),%ymm12 # 324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,117,35,3,0 // vpbroadcastd 0x32375(%rip),%ymm13 # 324e4 <_sk_srcover_rgba_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -9506,8 +9503,8 @@ _sk_dither_skx:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,245,40,3,0 // vbroadcastss 0x328f5(%rip),%ymm9 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
- .byte 98,114,61,56,168,13,239,40,3,0 // vfmadd213ps 0x328ef(%rip){1to8},%ymm8,%ymm9 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,13,39,35,3,0 // vbroadcastss 0x32327(%rip),%ymm9 # 324e8 <_sk_srcover_rgba_8888_sse2_lowp+0x2c0>
+ .byte 98,114,61,56,168,13,33,35,3,0 // vfmadd213ps 0x32321(%rip){1to8},%ymm8,%ymm9 # 324ec <_sk_srcover_rgba_8888_sse2_lowp+0x2c4>
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -9540,7 +9537,7 @@ HIDDEN _sk_black_color_skx
FUNCTION(_sk_black_color_skx)
_sk_black_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,124,40,3,0 // vbroadcastss 0x3287c(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,174,34,3,0 // vbroadcastss 0x322ae(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -9551,7 +9548,7 @@ HIDDEN _sk_white_color_skx
FUNCTION(_sk_white_color_skx)
_sk_white_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,99,40,3,0 // vbroadcastss 0x32863(%rip),%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,5,149,34,3,0 // vbroadcastss 0x32295(%rip),%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -9597,7 +9594,7 @@ HIDDEN _sk_srcatop_skx
FUNCTION(_sk_srcatop_skx)
_sk_srcatop_skx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,2,40,3,0 // vbroadcastss 0x32802(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,52,34,3,0 // vbroadcastss 0x32234(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -9613,7 +9610,7 @@ HIDDEN _sk_dstatop_skx
.globl _sk_dstatop_skx
FUNCTION(_sk_dstatop_skx)
_sk_dstatop_skx:
- .byte 196,98,125,24,5,209,39,3,0 // vbroadcastss 0x327d1(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,3,34,3,0 // vbroadcastss 0x32203(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -9652,7 +9649,7 @@ HIDDEN _sk_srcout_skx
.globl _sk_srcout_skx
FUNCTION(_sk_srcout_skx)
_sk_srcout_skx:
- .byte 196,98,125,24,5,116,39,3,0 // vbroadcastss 0x32774(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,166,33,3,0 // vbroadcastss 0x321a6(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9665,7 +9662,7 @@ HIDDEN _sk_dstout_skx
.globl _sk_dstout_skx
FUNCTION(_sk_dstout_skx)
_sk_dstout_skx:
- .byte 196,226,125,24,5,83,39,3,0 // vbroadcastss 0x32753(%rip),%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,5,133,33,3,0 // vbroadcastss 0x32185(%rip),%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -9678,7 +9675,7 @@ HIDDEN _sk_srcover_skx
.globl _sk_srcover_skx
FUNCTION(_sk_srcover_skx)
_sk_srcover_skx:
- .byte 196,98,125,24,5,50,39,3,0 // vbroadcastss 0x32732(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,100,33,3,0 // vbroadcastss 0x32164(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -9691,7 +9688,7 @@ HIDDEN _sk_dstover_skx
.globl _sk_dstover_skx
FUNCTION(_sk_dstover_skx)
_sk_dstover_skx:
- .byte 196,98,125,24,5,13,39,3,0 // vbroadcastss 0x3270d(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,63,33,3,0 // vbroadcastss 0x3213f(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -9715,7 +9712,7 @@ HIDDEN _sk_multiply_skx
.globl _sk_multiply_skx
FUNCTION(_sk_multiply_skx)
_sk_multiply_skx:
- .byte 196,98,125,24,5,212,38,3,0 // vbroadcastss 0x326d4(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,6,33,3,0 // vbroadcastss 0x32106(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9738,7 +9735,7 @@ HIDDEN _sk_plus__skx
FUNCTION(_sk_plus__skx)
_sk_plus__skx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,131,38,3,0 // vbroadcastss 0x32683(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,181,32,3,0 // vbroadcastss 0x320b5(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -9768,7 +9765,7 @@ HIDDEN _sk_xor__skx
.globl _sk_xor__skx
FUNCTION(_sk_xor__skx)
_sk_xor__skx:
- .byte 196,98,125,24,5,46,38,3,0 // vbroadcastss 0x3262e(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,96,32,3,0 // vbroadcastss 0x32060(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9802,7 +9799,7 @@ _sk_darken_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,178,37,3,0 // vbroadcastss 0x325b2(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,228,31,3,0 // vbroadcastss 0x31fe4(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9827,7 +9824,7 @@ _sk_lighten_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,93,37,3,0 // vbroadcastss 0x3255d(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,143,31,3,0 // vbroadcastss 0x31f8f(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9855,7 +9852,7 @@ _sk_difference_skx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,252,36,3,0 // vbroadcastss 0x324fc(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,46,31,3,0 // vbroadcastss 0x31f2e(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9877,7 +9874,7 @@ _sk_exclusion_skx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,182,36,3,0 // vbroadcastss 0x324b6(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,232,30,3,0 // vbroadcastss 0x31ee8(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9889,7 +9886,7 @@ FUNCTION(_sk_colorburn_skx)
_sk_colorburn_skx:
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,13,147,36,3,0 // vbroadcastss 0x32493(%rip),%ymm9 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,13,197,30,3,0 // vbroadcastss 0x31ec5(%rip),%ymm9 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12
@@ -9953,7 +9950,7 @@ _sk_colordodge_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,100,35,3,0 // vbroadcastss 0x32364(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,21,150,29,3,0 // vbroadcastss 0x31d96(%rip),%ymm10 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11
.byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12
.byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0
@@ -10010,7 +10007,7 @@ HIDDEN _sk_hardlight_skx
.globl _sk_hardlight_skx
FUNCTION(_sk_hardlight_skx)
_sk_hardlight_skx:
- .byte 196,98,125,24,5,92,34,3,0 // vbroadcastss 0x3225c(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,142,28,3,0 // vbroadcastss 0x31c8e(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -10064,7 +10061,7 @@ HIDDEN _sk_overlay_skx
.globl _sk_overlay_skx
FUNCTION(_sk_overlay_skx)
_sk_overlay_skx:
- .byte 196,98,125,24,5,120,33,3,0 // vbroadcastss 0x32178(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,170,27,3,0 // vbroadcastss 0x31baa(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -10130,15 +10127,15 @@ _sk_softlight_skx:
.byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11
.byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13
.byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14
- .byte 196,98,125,24,29,86,32,3,0 // vbroadcastss 0x32056(%rip),%ymm11 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,29,136,26,3,0 // vbroadcastss 0x31a88(%rip),%ymm11 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12
.byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12
.byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2
.byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
- .byte 98,226,125,40,24,21,81,32,3,0 // vbroadcastss 0x32051(%rip),%ymm18 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 98,226,125,40,24,21,131,26,3,0 // vbroadcastss 0x31a83(%rip),%ymm18 # 324f0 <_sk_srcover_rgba_8888_sse2_lowp+0x2c8>
.byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17
.byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12
- .byte 98,226,125,40,24,29,63,32,3,0 // vbroadcastss 0x3203f(%rip),%ymm19 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 98,226,125,40,24,29,113,26,3,0 // vbroadcastss 0x31a71(%rip),%ymm19 # 324f4 <_sk_srcover_rgba_8888_sse2_lowp+0x2cc>
.byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12
.byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17
.byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
@@ -10260,11 +10257,11 @@ _sk_hue_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,218,29,3,0 // vbroadcastss 0x31dda(%rip),%ymm13 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,53,213,29,3,0 // vbroadcastss 0x31dd5(%rip),%ymm14 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,45,12,24,3,0 // vbroadcastss 0x3180c(%rip),%ymm13 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,7,24,3,0 // vbroadcastss 0x31807(%rip),%ymm14 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,197,29,3,0 // vbroadcastss 0x31dc5(%rip),%ymm16 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 98,226,125,40,24,5,247,23,3,0 // vbroadcastss 0x317f7(%rip),%ymm16 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -10321,7 +10318,7 @@ _sk_hue_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,97,28,3,0 // vbroadcastss 0x31c61(%rip),%ymm1 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,13,147,22,3,0 // vbroadcastss 0x31693(%rip),%ymm1 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10373,11 +10370,11 @@ _sk_saturation_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,150,27,3,0 // vbroadcastss 0x31b96(%rip),%ymm13 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,53,145,27,3,0 // vbroadcastss 0x31b91(%rip),%ymm14 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,45,200,21,3,0 // vbroadcastss 0x315c8(%rip),%ymm13 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,195,21,3,0 // vbroadcastss 0x315c3(%rip),%ymm14 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,129,27,3,0 // vbroadcastss 0x31b81(%rip),%ymm16 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 98,226,125,40,24,5,179,21,3,0 // vbroadcastss 0x315b3(%rip),%ymm16 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -10434,7 +10431,7 @@ _sk_saturation_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,29,26,3,0 // vbroadcastss 0x31a1d(%rip),%ymm1 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,13,79,20,3,0 // vbroadcastss 0x3144f(%rip),%ymm1 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10458,11 +10455,11 @@ _sk_color_skx:
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
.byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11
- .byte 196,98,125,24,37,230,25,3,0 // vbroadcastss 0x319e6(%rip),%ymm12 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,45,225,25,3,0 // vbroadcastss 0x319e1(%rip),%ymm13 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,37,24,20,3,0 // vbroadcastss 0x31418(%rip),%ymm12 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,19,20,3,0 // vbroadcastss 0x31413(%rip),%ymm13 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14
.byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14
- .byte 196,98,125,24,61,210,25,3,0 // vbroadcastss 0x319d2(%rip),%ymm15 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,61,4,20,3,0 // vbroadcastss 0x31404(%rip),%ymm15 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -10520,7 +10517,7 @@ _sk_color_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,99,24,3,0 // vbroadcastss 0x31863(%rip),%ymm11 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,29,149,18,3,0 // vbroadcastss 0x31295(%rip),%ymm11 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -10544,11 +10541,11 @@ _sk_luminosity_skx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,37,46,24,3,0 // vbroadcastss 0x3182e(%rip),%ymm12 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,45,41,24,3,0 // vbroadcastss 0x31829(%rip),%ymm13 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,37,96,18,3,0 // vbroadcastss 0x31260(%rip),%ymm12 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,45,91,18,3,0 // vbroadcastss 0x3125b(%rip),%ymm13 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14
.byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
- .byte 196,98,125,24,61,26,24,3,0 // vbroadcastss 0x3181a(%rip),%ymm15 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,61,76,18,3,0 // vbroadcastss 0x3124c(%rip),%ymm15 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -10606,7 +10603,7 @@ _sk_luminosity_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,171,22,3,0 // vbroadcastss 0x316ab(%rip),%ymm11 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,29,221,16,3,0 // vbroadcastss 0x310dd(%rip),%ymm11 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -10635,7 +10632,7 @@ _sk_srcover_rgba_8888_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 151b <_sk_srcover_rgba_8888_skx+0xde>
+ .byte 15,133,190,0,0,0 // jne 1519 <_sk_srcover_rgba_8888_skx+0xde>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -10649,9 +10646,9 @@ _sk_srcover_rgba_8888_skx:
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,2,22,3,0 // vbroadcastss 0x31602(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,52,16,3,0 // vbroadcastss 0x31034(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,33,22,3,0 // vbroadcastss 0x31621(%rip),%ymm9 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,13,83,16,3,0 // vbroadcastss 0x31053(%rip),%ymm9 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -10671,7 +10668,7 @@ _sk_srcover_rgba_8888_skx:
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1553 <_sk_srcover_rgba_8888_skx+0x116>
+ .byte 117,66 // jne 1551 <_sk_srcover_rgba_8888_skx+0x116>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10680,26 +10677,26 @@ _sk_srcover_rgba_8888_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,47,255,255,255 // ja 1463 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 15,135,47,255,255,255 // ja 1461 <_sk_srcover_rgba_8888_skx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 1644 <_sk_srcover_rgba_8888_skx+0x207>
+ .byte 76,141,21,3,1,0,0 // lea 0x103(%rip),%r10 # 1640 <_sk_srcover_rgba_8888_skx+0x205>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,16,255,255,255 // jmpq 1463 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 233,16,255,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,179 // ja 1517 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 119,179 // ja 1515 <_sk_srcover_rgba_8888_skx+0xda>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 1660 <_sk_srcover_rgba_8888_skx+0x223>
+ .byte 76,141,13,239,0,0,0 // lea 0xef(%rip),%r9 # 165c <_sk_srcover_rgba_8888_skx+0x221>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,151 // jmp 1517 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 235,151 // jmp 1515 <_sk_srcover_rgba_8888_skx+0xda>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -10707,7 +10704,7 @@ _sk_srcover_rgba_8888_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,186,254,255,255 // jmpq 1463 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 233,186,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -10720,11 +10717,11 @@ _sk_srcover_rgba_8888_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,110,254,255,255 // jmpq 1463 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 233,110,254,255,255 // jmpq 1461 <_sk_srcover_rgba_8888_skx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 1517 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 233,9,255,255,255 // jmpq 1515 <_sk_srcover_rgba_8888_skx+0xda>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -10732,37 +10729,37 @@ _sk_srcover_rgba_8888_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 1517 <_sk_srcover_rgba_8888_skx+0xda>
- .byte 102,144 // xchg %ax,%ax
- .byte 4,255 // add $0xff,%al
+ .byte 233,213,254,255,255 // jmpq 1515 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 6 // (bad)
.byte 255 // (bad)
- .byte 255,79,255 // decl -0x1(%rdi)
.byte 255 // (bad)
+ .byte 255,81,255 // callq *-0x1(%rcx)
.byte 255 // (bad)
- .byte 60,255 // cmp $0xff,%al
.byte 255 // (bad)
- .byte 255,160,255,255,255,140 // jmpq *-0x73000001(%rax)
+ .byte 62,255 // ds (bad)
.byte 255 // (bad)
+ .byte 255,162,255,255,255,142 // jmpq *-0x71000001(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 1659 <_sk_srcover_rgba_8888_skx+0x21c>
.byte 255 // (bad)
- .byte 255,101,255 // jmpq *-0x1(%rbp)
+ .byte 122,255 // jp 1655 <_sk_srcover_rgba_8888_skx+0x21a>
.byte 255 // (bad)
- .byte 255,24 // lcall *(%rax)
+ .byte 255,103,255 // jmpq *-0x1(%rdi)
.byte 255 // (bad)
+ .byte 255,26 // lcall *(%rdx)
.byte 255 // (bad)
- .byte 255,157,255,255,255,149 // lcall *-0x6a000001(%rbp)
.byte 255 // (bad)
+ .byte 255,159,255,255,255,151 // lcall *-0x68000001(%rdi)
.byte 255 // (bad)
- .byte 255,215 // callq *%rdi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,202 // dec %edx
+ .byte 217,255 // fcos
+ .byte 255 // (bad)
+ .byte 255,204 // dec %esp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 188,255,255,255,174 // mov $0xaeffffff,%esp
+ .byte 190,255,255,255,176 // mov $0xb0ffffff,%esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -10783,7 +10780,7 @@ HIDDEN _sk_clamp_1_skx
.globl _sk_clamp_1_skx
FUNCTION(_sk_clamp_1_skx)
_sk_clamp_1_skx:
- .byte 196,98,125,24,5,6,20,3,0 // vbroadcastss 0x31406(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,58,14,3,0 // vbroadcastss 0x30e3a(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -10795,7 +10792,7 @@ HIDDEN _sk_clamp_a_skx
.globl _sk_clamp_a_skx
FUNCTION(_sk_clamp_a_skx)
_sk_clamp_a_skx:
- .byte 98,241,100,56,93,29,228,19,3,0 // vminps 0x313e4(%rip){1to8},%ymm3,%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,100,56,93,29,24,14,3,0 // vminps 0x30e18(%rip){1to8},%ymm3,%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
.byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
@@ -10806,7 +10803,7 @@ HIDDEN _sk_clamp_a_dst_skx
.globl _sk_clamp_a_dst_skx
FUNCTION(_sk_clamp_a_dst_skx)
_sk_clamp_a_dst_skx:
- .byte 98,241,68,56,93,61,202,19,3,0 // vminps 0x313ca(%rip){1to8},%ymm7,%ymm7 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,68,56,93,61,254,13,3,0 // vminps 0x30dfe(%rip){1to8},%ymm7,%ymm7 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
.byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
@@ -10838,7 +10835,7 @@ HIDDEN _sk_invert_skx
.globl _sk_invert_skx
FUNCTION(_sk_invert_skx)
_sk_invert_skx:
- .byte 196,98,125,24,5,138,19,3,0 // vbroadcastss 0x3138a(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,190,13,3,0 // vbroadcastss 0x30dbe(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -10892,9 +10889,9 @@ HIDDEN _sk_unpremul_skx
.globl _sk_unpremul_skx
FUNCTION(_sk_unpremul_skx)
_sk_unpremul_skx:
- .byte 196,98,125,24,5,37,19,3,0 // vbroadcastss 0x31325(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,89,13,3,0 // vbroadcastss 0x30d59(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 98,241,60,56,194,5,70,19,3,0,1 // vcmpltps 0x31346(%rip){1to8},%ymm8,%k0 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 98,241,60,56,194,5,122,13,3,0,1 // vcmpltps 0x30d7a(%rip){1to8},%ymm8,%k0 # 32508 <_sk_srcover_rgba_8888_sse2_lowp+0x2e0>
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -10908,16 +10905,16 @@ HIDDEN _sk_from_srgb_skx
.globl _sk_from_srgb_skx
FUNCTION(_sk_from_srgb_skx)
_sk_from_srgb_skx:
- .byte 196,98,125,24,5,32,19,3,0 // vbroadcastss 0x31320(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,5,84,13,3,0 // vbroadcastss 0x30d54(%rip),%ymm8 # 3250c <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,18,19,3,0 // vbroadcastss 0x31312(%rip),%ymm11 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 196,98,125,24,37,241,18,3,0 // vbroadcastss 0x312f1(%rip),%ymm12 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,29,70,13,3,0 // vbroadcastss 0x30d46(%rip),%ymm11 # 32510 <_sk_srcover_rgba_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,37,13,3,0 // vbroadcastss 0x30d25(%rip),%ymm12 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,250,18,3,0 // vbroadcastss 0x312fa(%rip),%ymm14 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,53,46,13,3,0 // vbroadcastss 0x30d2e(%rip),%ymm14 # 32514 <_sk_srcover_rgba_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,240,18,3,0 // vbroadcastss 0x312f0(%rip),%ymm10 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,21,36,13,3,0 // vbroadcastss 0x30d24(%rip),%ymm10 # 32518 <_sk_srcover_rgba_8888_sse2_lowp+0x2f0>
.byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
@@ -10943,16 +10940,16 @@ HIDDEN _sk_from_srgb_dst_skx
.globl _sk_from_srgb_dst_skx
FUNCTION(_sk_from_srgb_dst_skx)
_sk_from_srgb_dst_skx:
- .byte 196,98,125,24,5,115,18,3,0 // vbroadcastss 0x31273(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,5,167,12,3,0 // vbroadcastss 0x30ca7(%rip),%ymm8 # 3250c <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,101,18,3,0 // vbroadcastss 0x31265(%rip),%ymm11 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 196,98,125,24,37,68,18,3,0 // vbroadcastss 0x31244(%rip),%ymm12 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,29,153,12,3,0 // vbroadcastss 0x30c99(%rip),%ymm11 # 32510 <_sk_srcover_rgba_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,120,12,3,0 // vbroadcastss 0x30c78(%rip),%ymm12 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,77,18,3,0 // vbroadcastss 0x3124d(%rip),%ymm14 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,53,129,12,3,0 // vbroadcastss 0x30c81(%rip),%ymm14 # 32514 <_sk_srcover_rgba_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,67,18,3,0 // vbroadcastss 0x31243(%rip),%ymm10 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,21,119,12,3,0 // vbroadcastss 0x30c77(%rip),%ymm10 # 32518 <_sk_srcover_rgba_8888_sse2_lowp+0x2f0>
.byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0
.byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
@@ -10979,19 +10976,19 @@ HIDDEN _sk_to_srgb_skx
FUNCTION(_sk_to_srgb_skx)
_sk_to_srgb_skx:
.byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8
- .byte 196,98,125,24,13,208,17,3,0 // vbroadcastss 0x311d0(%rip),%ymm9 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,13,4,12,3,0 // vbroadcastss 0x30c04(%rip),%ymm9 # 3251c <_sk_srcover_rgba_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10
- .byte 196,98,125,24,29,198,17,3,0 // vbroadcastss 0x311c6(%rip),%ymm11 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
- .byte 196,98,125,24,37,193,17,3,0 // vbroadcastss 0x311c1(%rip),%ymm12 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,29,250,11,3,0 // vbroadcastss 0x30bfa(%rip),%ymm11 # 32520 <_sk_srcover_rgba_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,245,11,3,0 // vbroadcastss 0x30bf5(%rip),%ymm12 # 32524 <_sk_srcover_rgba_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13
- .byte 196,98,125,24,53,178,17,3,0 // vbroadcastss 0x311b2(%rip),%ymm14 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,53,230,11,3,0 // vbroadcastss 0x30be6(%rip),%ymm14 # 32528 <_sk_srcover_rgba_8888_sse2_lowp+0x300>
.byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13
- .byte 196,98,125,24,61,168,17,3,0 // vbroadcastss 0x311a8(%rip),%ymm15 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,61,220,11,3,0 // vbroadcastss 0x30bdc(%rip),%ymm15 # 3252c <_sk_srcover_rgba_8888_sse2_lowp+0x304>
.byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
.byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,147,17,3,0 // vbroadcastss 0x31193(%rip),%ymm13 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,45,199,11,3,0 // vbroadcastss 0x30bc7(%rip),%ymm13 # 32530 <_sk_srcover_rgba_8888_sse2_lowp+0x308>
.byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0
@@ -11029,7 +11026,7 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8
.byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10
.byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16
- .byte 196,98,125,24,5,132,16,3,0 // vbroadcastss 0x31084(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,184,10,3,0 // vbroadcastss 0x30ab8(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12
.byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
@@ -11038,23 +11035,23 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
.byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0
.byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,98,125,24,29,166,16,3,0 // vbroadcastss 0x310a6(%rip),%ymm11 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,29,218,10,3,0 // vbroadcastss 0x30ada(%rip),%ymm11 # 32534 <_sk_srcover_rgba_8888_sse2_lowp+0x30c>
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11
.byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14
.byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,98,125,24,61,129,16,3,0 // vbroadcastss 0x31081(%rip),%ymm15 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,61,181,10,3,0 // vbroadcastss 0x30ab5(%rip),%ymm15 # 32538 <_sk_srcover_rgba_8888_sse2_lowp+0x310>
.byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 98,242,29,56,168,5,114,16,3,0 // vfmadd213ps 0x31072(%rip){1to8},%ymm12,%ymm0 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 98,242,29,56,168,5,166,10,3,0 // vfmadd213ps 0x30aa6(%rip){1to8},%ymm12,%ymm0 # 3253c <_sk_srcover_rgba_8888_sse2_lowp+0x314>
.byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0
.byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0
.byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,90,16,3,0 // vmulps 0x3105a(%rip){1to8},%ymm0,%ymm0 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 98,241,124,56,89,5,142,10,3,0 // vmulps 0x30a8e(%rip){1to8},%ymm0,%ymm0 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x318>
.byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1
- .byte 196,98,125,24,29,224,15,3,0 // vbroadcastss 0x30fe0(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,29,20,10,3,0 // vbroadcastss 0x30a14(%rip),%ymm11 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
@@ -11073,7 +11070,7 @@ FUNCTION(_sk_hsl_to_rgb_skx)
_sk_hsl_to_rgb_skx:
.byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18
.byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20
- .byte 98,226,125,40,24,5,146,15,3,0 // vbroadcastss 0x30f92(%rip),%ymm16 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 98,226,125,40,24,5,198,9,3,0 // vbroadcastss 0x309c6(%rip),%ymm16 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9
@@ -11081,27 +11078,27 @@ _sk_hsl_to_rgb_skx:
.byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
.byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11
.byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9
- .byte 98,114,109,56,186,13,199,15,3,0 // vfmsub231ps 0x30fc7(%rip){1to8},%ymm2,%ymm9 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 98,114,109,56,186,13,251,9,3,0 // vfmsub231ps 0x309fb(%rip){1to8},%ymm2,%ymm9 # 32538 <_sk_srcover_rgba_8888_sse2_lowp+0x310>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0
.byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7
- .byte 98,241,124,56,88,13,183,15,3,0 // vaddps 0x30fb7(%rip){1to8},%ymm0,%ymm1 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 98,241,124,56,88,13,235,9,3,0 // vaddps 0x309eb(%rip){1to8},%ymm0,%ymm1 # 32544 <_sk_srcover_rgba_8888_sse2_lowp+0x31c>
.byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
.byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
- .byte 98,226,125,40,24,29,166,15,3,0 // vbroadcastss 0x30fa6(%rip),%ymm19 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 98,226,125,40,24,29,218,9,3,0 // vbroadcastss 0x309da(%rip),%ymm19 # 32548 <_sk_srcover_rgba_8888_sse2_lowp+0x320>
.byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,98,125,24,61,119,15,3,0 // vbroadcastss 0x30f77(%rip),%ymm15 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,61,171,9,3,0 // vbroadcastss 0x309ab(%rip),%ymm15 # 32534 <_sk_srcover_rgba_8888_sse2_lowp+0x30c>
.byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12
- .byte 98,226,125,40,24,13,112,15,3,0 // vbroadcastss 0x30f70(%rip),%ymm17 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 98,226,125,40,24,13,164,9,3,0 // vbroadcastss 0x309a4(%rip),%ymm17 # 3253c <_sk_srcover_rgba_8888_sse2_lowp+0x314>
.byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10
.byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
.byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8
- .byte 196,98,125,24,21,71,15,3,0 // vbroadcastss 0x30f47(%rip),%ymm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,21,123,9,3,0 // vbroadcastss 0x3097b(%rip),%ymm10 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x318>
.byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
.byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
.byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12
@@ -11123,7 +11120,7 @@ _sk_hsl_to_rgb_skx:
.byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
.byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1
.byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1
- .byte 98,241,124,56,88,5,205,14,3,0 // vaddps 0x30ecd(%rip){1to8},%ymm0,%ymm0 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 98,241,124,56,88,5,1,9,3,0 // vaddps 0x30901(%rip){1to8},%ymm0,%ymm0 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0
@@ -11170,12 +11167,12 @@ _sk_scale_u8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 1d2b <_sk_scale_u8_skx+0x4e>
+ .byte 117,54 // jne 1d27 <_sk_scale_u8_skx+0x4e>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,77,15,3,0 // vpand 0x30f4d(%rip),%xmm8,%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,241,14,3,0 // vpand 0x30ef1(%rip),%xmm8,%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,9,14,3,0 // vmulps 0x30e09(%rip){1to8},%ymm8,%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,113,60,56,89,5,61,8,3,0 // vmulps 0x3083d(%rip){1to8},%ymm8,%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
@@ -11187,15 +11184,15 @@ _sk_scale_u8_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,186 // ja 1cfb <_sk_scale_u8_skx+0x1e>
+ .byte 119,186 // ja 1cf7 <_sk_scale_u8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,140,0,0,0 // lea 0x8c(%rip),%r10 # 1dd8 <_sk_scale_u8_skx+0xfb>
+ .byte 76,141,21,140,0,0,0 // lea 0x8c(%rip),%r10 # 1dd4 <_sk_scale_u8_skx+0xfb>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,155 // jmp 1cfb <_sk_scale_u8_skx+0x1e>
+ .byte 235,155 // jmp 1cf7 <_sk_scale_u8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -11203,7 +11200,7 @@ _sk_scale_u8_skx:
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,110,255,255,255 // jmpq 1cfb <_sk_scale_u8_skx+0x1e>
+ .byte 233,110,255,255,255 // jmpq 1cf7 <_sk_scale_u8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -11216,9 +11213,9 @@ _sk_scale_u8_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,37,255,255,255 // jmpq 1cfb <_sk_scale_u8_skx+0x1e>
+ .byte 233,37,255,255,255 // jmpq 1cf7 <_sk_scale_u8_skx+0x1e>
.byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 1dd9 <_sk_scale_u8_skx+0xfc>
+ .byte 125,255 // jge 1dd5 <_sk_scale_u8_skx+0xfc>
.byte 255 // (bad)
.byte 255,152,255,255,255,136 // lcall *-0x77000001(%rax)
.byte 255 // (bad)
@@ -11249,18 +11246,18 @@ _sk_scale_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,145,0,0,0 // jne 1ea4 <_sk_scale_565_skx+0xb0>
+ .byte 15,133,145,0,0,0 // jne 1ea0 <_sk_scale_565_skx+0xb0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,252,12,3,0 // vpandd 0x30cfc(%rip){1to8},%ymm8,%ymm9 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 98,113,61,56,219,13,48,7,3,0 // vpandd 0x30730(%rip){1to8},%ymm8,%ymm9 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,241,12,3,0 // vmulps 0x30cf1(%rip){1to8},%ymm9,%ymm9 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
- .byte 98,113,61,56,219,21,235,12,3,0 // vpandd 0x30ceb(%rip){1to8},%ymm8,%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,113,52,56,89,13,37,7,3,0 // vmulps 0x30725(%rip){1to8},%ymm9,%ymm9 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,31,7,3,0 // vpandd 0x3071f(%rip){1to8},%ymm8,%ymm10 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,224,12,3,0 // vmulps 0x30ce0(%rip){1to8},%ymm10,%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 98,113,61,56,219,5,218,12,3,0 // vpandd 0x30cda(%rip){1to8},%ymm8,%ymm8 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,113,44,56,89,21,20,7,3,0 // vmulps 0x30714(%rip){1to8},%ymm10,%ymm10 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,14,7,3,0 // vpandd 0x3070e(%rip){1to8},%ymm8,%ymm8 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,207,12,3,0 // vmulps 0x30ccf(%rip){1to8},%ymm8,%ymm8 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,113,60,56,89,5,3,7,3,0 // vmulps 0x30703(%rip){1to8},%ymm8,%ymm8 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11279,22 +11276,22 @@ _sk_scale_565_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,91,255,255,255 // ja 1e19 <_sk_scale_565_skx+0x25>
+ .byte 15,135,91,255,255,255 // ja 1e15 <_sk_scale_565_skx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 1f4c <_sk_scale_565_skx+0x158>
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 1f48 <_sk_scale_565_skx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,57,255,255,255 // jmpq 1e19 <_sk_scale_565_skx+0x25>
+ .byte 233,57,255,255,255 // jmpq 1e15 <_sk_scale_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,2,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,15,255,255,255 // jmpq 1e19 <_sk_scale_565_skx+0x25>
+ .byte 233,15,255,255,255 // jmpq 1e15 <_sk_scale_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
@@ -11304,7 +11301,7 @@ _sk_scale_565_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
.byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
- .byte 233,208,254,255,255 // jmpq 1e19 <_sk_scale_565_skx+0x25>
+ .byte 233,208,254,255,255 // jmpq 1e15 <_sk_scale_565_skx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
@@ -11354,12 +11351,12 @@ _sk_lerp_u8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,74 // jne 1ff9 <_sk_lerp_u8_skx+0x62>
+ .byte 117,74 // jne 1ff5 <_sk_lerp_u8_skx+0x62>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,147,12,3,0 // vpand 0x30c93(%rip),%xmm8,%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,55,12,3,0 // vpand 0x30c37(%rip),%xmm8,%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,79,11,3,0 // vmulps 0x30b4f(%rip){1to8},%ymm8,%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,113,60,56,89,5,131,5,3,0 // vmulps 0x30583(%rip){1to8},%ymm8,%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
@@ -11375,15 +11372,15 @@ _sk_lerp_u8_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 1fb5 <_sk_lerp_u8_skx+0x1e>
+ .byte 119,166 // ja 1fb1 <_sk_lerp_u8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,138,0,0,0 // lea 0x8a(%rip),%r10 # 20a4 <_sk_lerp_u8_skx+0x10d>
+ .byte 76,141,21,138,0,0,0 // lea 0x8a(%rip),%r10 # 20a0 <_sk_lerp_u8_skx+0x10d>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 1fb5 <_sk_lerp_u8_skx+0x1e>
+ .byte 235,135 // jmp 1fb1 <_sk_lerp_u8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -11391,7 +11388,7 @@ _sk_lerp_u8_skx:
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,90,255,255,255 // jmpq 1fb5 <_sk_lerp_u8_skx+0x1e>
+ .byte 233,90,255,255,255 // jmpq 1fb1 <_sk_lerp_u8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -11404,8 +11401,8 @@ _sk_lerp_u8_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,17,255,255,255 // jmpq 1fb5 <_sk_lerp_u8_skx+0x1e>
- .byte 127,255 // jg 20a5 <_sk_lerp_u8_skx+0x10e>
+ .byte 233,17,255,255,255 // jmpq 1fb1 <_sk_lerp_u8_skx+0x1e>
+ .byte 127,255 // jg 20a1 <_sk_lerp_u8_skx+0x10e>
.byte 255 // (bad)
.byte 255,154,255,255,255,138 // lcall *-0x75000001(%rdx)
.byte 255 // (bad)
@@ -11436,18 +11433,18 @@ _sk_lerp_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 2184 <_sk_lerp_565_skx+0xc4>
+ .byte 15,133,165,0,0,0 // jne 2180 <_sk_lerp_565_skx+0xc4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,48,10,3,0 // vpandd 0x30a30(%rip){1to8},%ymm8,%ymm9 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 98,113,61,56,219,13,100,4,3,0 // vpandd 0x30464(%rip){1to8},%ymm8,%ymm9 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,37,10,3,0 // vmulps 0x30a25(%rip){1to8},%ymm9,%ymm9 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
- .byte 98,113,61,56,219,21,31,10,3,0 // vpandd 0x30a1f(%rip){1to8},%ymm8,%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,113,52,56,89,13,89,4,3,0 // vmulps 0x30459(%rip){1to8},%ymm9,%ymm9 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
+ .byte 98,113,61,56,219,21,83,4,3,0 // vpandd 0x30453(%rip){1to8},%ymm8,%ymm10 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,20,10,3,0 // vmulps 0x30a14(%rip){1to8},%ymm10,%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 98,113,61,56,219,5,14,10,3,0 // vpandd 0x30a0e(%rip){1to8},%ymm8,%ymm8 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,113,44,56,89,21,72,4,3,0 // vmulps 0x30448(%rip){1to8},%ymm10,%ymm10 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
+ .byte 98,113,61,56,219,5,66,4,3,0 // vpandd 0x30442(%rip){1to8},%ymm8,%ymm8 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,3,10,3,0 // vmulps 0x30a03(%rip){1to8},%ymm8,%ymm8 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,113,60,56,89,5,55,4,3,0 // vmulps 0x30437(%rip){1to8},%ymm8,%ymm8 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11470,22 +11467,22 @@ _sk_lerp_565_skx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,71,255,255,255 // ja 20e5 <_sk_lerp_565_skx+0x25>
+ .byte 15,135,71,255,255,255 // ja 20e1 <_sk_lerp_565_skx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 222c <_sk_lerp_565_skx+0x16c>
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 2228 <_sk_lerp_565_skx+0x16c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,37,255,255,255 // jmpq 20e5 <_sk_lerp_565_skx+0x25>
+ .byte 233,37,255,255,255 // jmpq 20e1 <_sk_lerp_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,2,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm9
.byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
.byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 20e5 <_sk_lerp_565_skx+0x25>
+ .byte 233,251,254,255,255 // jmpq 20e1 <_sk_lerp_565_skx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
@@ -11495,7 +11492,7 @@ _sk_lerp_565_skx:
.byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
.byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
.byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
- .byte 233,188,254,255,255 // jmpq 20e5 <_sk_lerp_565_skx+0x25>
+ .byte 233,188,254,255,255 // jmpq 20e1 <_sk_lerp_565_skx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
@@ -11524,7 +11521,7 @@ _sk_load_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,124 // jne 22ce <_sk_load_tables_skx+0x86>
+ .byte 117,124 // jne 22ca <_sk_load_tables_skx+0x86>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
.byte 65,184,17,17,17,17 // mov $0x11111111,%r8d
.byte 196,193,123,146,200 // kmovd %r8d,%k1
@@ -11547,7 +11544,7 @@ _sk_load_tables_skx:
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,86,8,3,0 // vmulps 0x30856(%rip){1to8},%ymm3,%ymm3 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,241,100,56,89,29,138,2,3,0 // vmulps 0x3028a(%rip){1to8},%ymm3,%ymm3 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -11555,14 +11552,14 @@ _sk_load_tables_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,113,255,255,255 // ja 2258 <_sk_load_tables_skx+0x10>
+ .byte 15,135,113,255,255,255 // ja 2254 <_sk_load_tables_skx+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 2380 <_sk_load_tables_skx+0x138>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 237c <_sk_load_tables_skx+0x138>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,81,255,255,255 // jmpq 2258 <_sk_load_tables_skx+0x10>
+ .byte 233,81,255,255,255 // jmpq 2254 <_sk_load_tables_skx+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 65,177,4 // mov $0x4,%r9b
.byte 196,193,123,146,201 // kmovd %r9d,%k1
@@ -11570,7 +11567,7 @@ _sk_load_tables_skx:
.byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,38,255,255,255 // jmpq 2258 <_sk_load_tables_skx+0x10>
+ .byte 233,38,255,255,255 // jmpq 2254 <_sk_load_tables_skx+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 65,177,64 // mov $0x40,%r9b
.byte 196,193,123,146,201 // kmovd %r9d,%k1
@@ -11583,8 +11580,8 @@ _sk_load_tables_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,216,254,255,255 // jmpq 2258 <_sk_load_tables_skx+0x10>
- .byte 124,255 // jl 2381 <_sk_load_tables_skx+0x139>
+ .byte 233,216,254,255,255 // jmpq 2254 <_sk_load_tables_skx+0x10>
+ .byte 124,255 // jl 237d <_sk_load_tables_skx+0x139>
.byte 255 // (bad)
.byte 255,156,255,255,255,135,255 // lcall *-0x780001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -11611,7 +11608,7 @@ _sk_load_tables_u16_be_skx:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,210,0,0,0 // jne 2484 <_sk_load_tables_u16_be_skx+0xe8>
+ .byte 15,133,210,0,0,0 // jne 2480 <_sk_load_tables_u16_be_skx+0xe8>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -11626,7 +11623,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
- .byte 197,121,111,21,81,8,3,0 // vmovdqa 0x30851(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,121,111,21,245,7,3,0 // vmovdqa 0x307f5(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -11652,35 +11649,35 @@ _sk_load_tables_u16_be_skx:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,188,6,3,0 // vmulps 0x306bc(%rip){1to8},%ymm3,%ymm3 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,241,100,56,89,29,240,0,3,0 // vmulps 0x300f0(%rip){1to8},%ymm3,%ymm3 # 3256c <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 24ea <_sk_load_tables_u16_be_skx+0x14e>
+ .byte 116,85 // je 24e6 <_sk_load_tables_u16_be_skx+0x14e>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 24ea <_sk_load_tables_u16_be_skx+0x14e>
+ .byte 114,72 // jb 24e6 <_sk_load_tables_u16_be_skx+0x14e>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 24f7 <_sk_load_tables_u16_be_skx+0x15b>
+ .byte 116,72 // je 24f3 <_sk_load_tables_u16_be_skx+0x15b>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 24f7 <_sk_load_tables_u16_be_skx+0x15b>
+ .byte 114,59 // jb 24f3 <_sk_load_tables_u16_be_skx+0x15b>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,0,255,255,255 // je 23cd <_sk_load_tables_u16_be_skx+0x31>
+ .byte 15,132,0,255,255,255 // je 23c9 <_sk_load_tables_u16_be_skx+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,239,254,255,255 // jb 23cd <_sk_load_tables_u16_be_skx+0x31>
+ .byte 15,130,239,254,255,255 // jb 23c9 <_sk_load_tables_u16_be_skx+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,227,254,255,255 // jmpq 23cd <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,227,254,255,255 // jmpq 23c9 <_sk_load_tables_u16_be_skx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,214,254,255,255 // jmpq 23cd <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,214,254,255,255 // jmpq 23c9 <_sk_load_tables_u16_be_skx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,205,254,255,255 // jmpq 23cd <_sk_load_tables_u16_be_skx+0x31>
+ .byte 233,205,254,255,255 // jmpq 23c9 <_sk_load_tables_u16_be_skx+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_skx
.globl _sk_load_tables_rgb_u16_be_skx
@@ -11690,7 +11687,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,203,0,0,0 // jne 25dd <_sk_load_tables_rgb_u16_be_skx+0xdd>
+ .byte 15,133,203,0,0,0 // jne 25d9 <_sk_load_tables_rgb_u16_be_skx+0xdd>
.byte 196,1,121,16,28,72 // vmovupd (%r8,%r9,2),%xmm11
.byte 196,129,121,16,92,72,12 // vmovupd 0xc(%r8,%r9,2),%xmm3
.byte 196,129,121,16,84,72,24 // vmovupd 0x18(%r8,%r9,2),%xmm2
@@ -11709,7 +11706,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
.byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9
.byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,121,111,21,218,6,3,0 // vmovdqa 0x306da(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,121,111,21,126,6,3,0 // vmovdqa 0x3067e(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -11730,76 +11727,76 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,205,4,3,0 // vbroadcastss 0x304cd(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,1,255,2,0 // vbroadcastss 0x2ff01(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 2615 <_sk_load_tables_rgb_u16_be_skx+0x115>
+ .byte 117,31 // jne 2611 <_sk_load_tables_rgb_u16_be_skx+0x115>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,47,255,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 265f <_sk_load_tables_rgb_u16_be_skx+0x15f>
+ .byte 114,48 // jb 265b <_sk_load_tables_rgb_u16_be_skx+0x15f>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 2679 <_sk_load_tables_rgb_u16_be_skx+0x179>
+ .byte 117,48 // jne 2675 <_sk_load_tables_rgb_u16_be_skx+0x179>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,229,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,203,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 26ba <_sk_load_tables_rgb_u16_be_skx+0x1ba>
+ .byte 114,39 // jb 26b6 <_sk_load_tables_rgb_u16_be_skx+0x1ba>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 26cb <_sk_load_tables_rgb_u16_be_skx+0x1cb>
+ .byte 117,30 // jne 26c7 <_sk_load_tables_rgb_u16_be_skx+0x1cb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,138,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,121,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 26fe <_sk_load_tables_rgb_u16_be_skx+0x1fe>
+ .byte 114,25 // jb 26fa <_sk_load_tables_rgb_u16_be_skx+0x1fe>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,70,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq 2544 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 233,61,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
HIDDEN _sk_byte_tables_skx
.globl _sk_byte_tables_skx
FUNCTION(_sk_byte_tables_skx)
_sk_byte_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,194,3,3,0 // vbroadcastss 0x303c2(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,246,253,2,0 // vbroadcastss 0x2fdf6(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -11929,7 +11926,7 @@ _sk_byte_tables_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,148,1,3,0 // vbroadcastss 0x30194(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,200,251,2,0 // vbroadcastss 0x2fbc8(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -12050,7 +12047,7 @@ _sk_byte_tables_rgb_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,107,255,2,0 // vbroadcastss 0x2ff6b(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,159,249,2,0 // vbroadcastss 0x2f99f(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,194,125,49,202 // vpmovzxbd %xmm10,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -12147,33 +12144,33 @@ _sk_parametric_r_skx:
.byte 98,114,125,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,95,254,2,0 // vbroadcastss 0x2fe5f(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
- .byte 98,114,37,56,168,37,93,254,2,0 // vfmadd213ps 0x2fe5d(%rip){1to8},%ymm11,%ymm12 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 98,113,44,56,84,21,79,254,2,0 // vandps 0x2fe4f(%rip){1to8},%ymm10,%ymm10 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
- .byte 98,113,44,56,86,21,165,253,2,0 // vorps 0x2fda5(%rip){1to8},%ymm10,%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
- .byte 98,114,45,56,188,37,67,254,2,0 // vfnmadd231ps 0x2fe43(%rip){1to8},%ymm10,%ymm12 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,113,44,56,88,21,61,254,2,0 // vaddps 0x2fe3d(%rip){1to8},%ymm10,%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 196,98,125,24,29,56,254,2,0 // vbroadcastss 0x2fe38(%rip),%ymm11 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,147,248,2,0 // vbroadcastss 0x2f893(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
+ .byte 98,114,37,56,168,37,145,248,2,0 // vfmadd213ps 0x2f891(%rip){1to8},%ymm11,%ymm12 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,131,248,2,0 // vandps 0x2f883(%rip){1to8},%ymm10,%ymm10 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,217,247,2,0 // vorps 0x2f7d9(%rip){1to8},%ymm10,%ymm10 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,37,119,248,2,0 // vfnmadd231ps 0x2f877(%rip){1to8},%ymm10,%ymm12 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,113,248,2,0 // vaddps 0x2f871(%rip){1to8},%ymm10,%ymm10 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,29,108,248,2,0 // vbroadcastss 0x2f86c(%rip),%ymm11 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,241,124,56,88,5,24,254,2,0 // vaddps 0x2fe18(%rip){1to8},%ymm0,%ymm0 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 98,242,45,56,188,5,18,254,2,0 // vfnmadd231ps 0x2fe12(%rip){1to8},%ymm10,%ymm0 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
- .byte 196,98,125,24,29,13,254,2,0 // vbroadcastss 0x2fe0d(%rip),%ymm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,241,124,56,88,5,76,248,2,0 // vaddps 0x2f84c(%rip){1to8},%ymm0,%ymm0 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,5,70,248,2,0 // vfnmadd231ps 0x2f846(%rip){1to8},%ymm10,%ymm0 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,65,248,2,0 // vbroadcastss 0x2f841(%rip),%ymm11 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,3,254,2,0 // vbroadcastss 0x2fe03(%rip),%ymm11 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,55,248,2,0 // vbroadcastss 0x2f837(%rip),%ymm11 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,243,253,2,0 // vmulps 0x2fdf3(%rip){1to8},%ymm0,%ymm0 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,241,124,56,89,5,39,248,2,0 // vmulps 0x2f827(%rip){1to8},%ymm0,%ymm0 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 98,241,124,56,93,5,11,253,2,0 // vminps 0x2fd0b(%rip){1to8},%ymm0,%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,124,56,93,5,63,247,2,0 // vminps 0x2f73f(%rip){1to8},%ymm0,%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12190,33 +12187,33 @@ _sk_parametric_g_skx:
.byte 98,114,117,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,98,253,2,0 // vbroadcastss 0x2fd62(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
- .byte 98,114,37,56,168,37,96,253,2,0 // vfmadd213ps 0x2fd60(%rip){1to8},%ymm11,%ymm12 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 98,113,44,56,84,21,82,253,2,0 // vandps 0x2fd52(%rip){1to8},%ymm10,%ymm10 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
- .byte 98,113,44,56,86,21,168,252,2,0 // vorps 0x2fca8(%rip){1to8},%ymm10,%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
- .byte 98,114,45,56,188,37,70,253,2,0 // vfnmadd231ps 0x2fd46(%rip){1to8},%ymm10,%ymm12 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,113,44,56,88,21,64,253,2,0 // vaddps 0x2fd40(%rip){1to8},%ymm10,%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 196,98,125,24,29,59,253,2,0 // vbroadcastss 0x2fd3b(%rip),%ymm11 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,150,247,2,0 // vbroadcastss 0x2f796(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
+ .byte 98,114,37,56,168,37,148,247,2,0 // vfmadd213ps 0x2f794(%rip){1to8},%ymm11,%ymm12 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,134,247,2,0 // vandps 0x2f786(%rip){1to8},%ymm10,%ymm10 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,220,246,2,0 // vorps 0x2f6dc(%rip){1to8},%ymm10,%ymm10 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,37,122,247,2,0 // vfnmadd231ps 0x2f77a(%rip){1to8},%ymm10,%ymm12 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,116,247,2,0 // vaddps 0x2f774(%rip){1to8},%ymm10,%ymm10 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,29,111,247,2,0 // vbroadcastss 0x2f76f(%rip),%ymm11 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 98,241,116,56,88,13,27,253,2,0 // vaddps 0x2fd1b(%rip){1to8},%ymm1,%ymm1 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 98,242,45,56,188,13,21,253,2,0 // vfnmadd231ps 0x2fd15(%rip){1to8},%ymm10,%ymm1 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
- .byte 196,98,125,24,29,16,253,2,0 // vbroadcastss 0x2fd10(%rip),%ymm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,241,116,56,88,13,79,247,2,0 // vaddps 0x2f74f(%rip){1to8},%ymm1,%ymm1 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,13,73,247,2,0 // vfnmadd231ps 0x2f749(%rip){1to8},%ymm10,%ymm1 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,68,247,2,0 // vbroadcastss 0x2f744(%rip),%ymm11 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,6,253,2,0 // vbroadcastss 0x2fd06(%rip),%ymm11 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,58,247,2,0 // vbroadcastss 0x2f73a(%rip),%ymm11 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 98,241,116,56,89,13,246,252,2,0 // vmulps 0x2fcf6(%rip){1to8},%ymm1,%ymm1 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,241,116,56,89,13,42,247,2,0 // vmulps 0x2f72a(%rip){1to8},%ymm1,%ymm1 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 98,241,116,56,93,13,14,252,2,0 // vminps 0x2fc0e(%rip){1to8},%ymm1,%ymm1 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,116,56,93,13,66,246,2,0 // vminps 0x2f642(%rip){1to8},%ymm1,%ymm1 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12233,33 +12230,33 @@ _sk_parametric_b_skx:
.byte 98,114,109,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,101,252,2,0 // vbroadcastss 0x2fc65(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
- .byte 98,114,37,56,168,37,99,252,2,0 // vfmadd213ps 0x2fc63(%rip){1to8},%ymm11,%ymm12 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 98,113,44,56,84,21,85,252,2,0 // vandps 0x2fc55(%rip){1to8},%ymm10,%ymm10 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
- .byte 98,113,44,56,86,21,171,251,2,0 // vorps 0x2fbab(%rip){1to8},%ymm10,%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
- .byte 98,114,45,56,188,37,73,252,2,0 // vfnmadd231ps 0x2fc49(%rip){1to8},%ymm10,%ymm12 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,113,44,56,88,21,67,252,2,0 // vaddps 0x2fc43(%rip){1to8},%ymm10,%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 196,98,125,24,29,62,252,2,0 // vbroadcastss 0x2fc3e(%rip),%ymm11 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,153,246,2,0 // vbroadcastss 0x2f699(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
+ .byte 98,114,37,56,168,37,151,246,2,0 // vfmadd213ps 0x2f697(%rip){1to8},%ymm11,%ymm12 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,137,246,2,0 // vandps 0x2f689(%rip){1to8},%ymm10,%ymm10 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,223,245,2,0 // vorps 0x2f5df(%rip){1to8},%ymm10,%ymm10 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,37,125,246,2,0 // vfnmadd231ps 0x2f67d(%rip){1to8},%ymm10,%ymm12 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,119,246,2,0 // vaddps 0x2f677(%rip){1to8},%ymm10,%ymm10 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,29,114,246,2,0 // vbroadcastss 0x2f672(%rip),%ymm11 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 98,241,108,56,88,21,30,252,2,0 // vaddps 0x2fc1e(%rip){1to8},%ymm2,%ymm2 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 98,242,45,56,188,21,24,252,2,0 // vfnmadd231ps 0x2fc18(%rip){1to8},%ymm10,%ymm2 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
- .byte 196,98,125,24,29,19,252,2,0 // vbroadcastss 0x2fc13(%rip),%ymm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,241,108,56,88,21,82,246,2,0 // vaddps 0x2f652(%rip){1to8},%ymm2,%ymm2 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,21,76,246,2,0 // vfnmadd231ps 0x2f64c(%rip){1to8},%ymm10,%ymm2 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,71,246,2,0 // vbroadcastss 0x2f647(%rip),%ymm11 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,9,252,2,0 // vbroadcastss 0x2fc09(%rip),%ymm11 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,61,246,2,0 // vbroadcastss 0x2f63d(%rip),%ymm11 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 98,241,108,56,89,21,249,251,2,0 // vmulps 0x2fbf9(%rip){1to8},%ymm2,%ymm2 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,241,108,56,89,21,45,246,2,0 // vmulps 0x2f62d(%rip){1to8},%ymm2,%ymm2 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 98,241,108,56,93,21,17,251,2,0 // vminps 0x2fb11(%rip){1to8},%ymm2,%ymm2 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,108,56,93,21,69,245,2,0 // vminps 0x2f545(%rip){1to8},%ymm2,%ymm2 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12276,33 +12273,33 @@ _sk_parametric_a_skx:
.byte 98,114,101,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,104,251,2,0 // vbroadcastss 0x2fb68(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
- .byte 98,114,37,56,168,37,102,251,2,0 // vfmadd213ps 0x2fb66(%rip){1to8},%ymm11,%ymm12 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
- .byte 98,113,44,56,84,21,88,251,2,0 // vandps 0x2fb58(%rip){1to8},%ymm10,%ymm10 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
- .byte 98,113,44,56,86,21,174,250,2,0 // vorps 0x2faae(%rip){1to8},%ymm10,%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
- .byte 98,114,45,56,188,37,76,251,2,0 // vfnmadd231ps 0x2fb4c(%rip){1to8},%ymm10,%ymm12 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,113,44,56,88,21,70,251,2,0 // vaddps 0x2fb46(%rip){1to8},%ymm10,%ymm10 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 196,98,125,24,29,65,251,2,0 // vbroadcastss 0x2fb41(%rip),%ymm11 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,156,245,2,0 // vbroadcastss 0x2f59c(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
+ .byte 98,114,37,56,168,37,154,245,2,0 // vfmadd213ps 0x2f59a(%rip){1to8},%ymm11,%ymm12 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
+ .byte 98,113,44,56,84,21,140,245,2,0 // vandps 0x2f58c(%rip){1to8},%ymm10,%ymm10 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
+ .byte 98,113,44,56,86,21,226,244,2,0 // vorps 0x2f4e2(%rip){1to8},%ymm10,%ymm10 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
+ .byte 98,114,45,56,188,37,128,245,2,0 // vfnmadd231ps 0x2f580(%rip){1to8},%ymm10,%ymm12 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
+ .byte 98,113,44,56,88,21,122,245,2,0 // vaddps 0x2f57a(%rip){1to8},%ymm10,%ymm10 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
+ .byte 196,98,125,24,29,117,245,2,0 // vbroadcastss 0x2f575(%rip),%ymm11 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 98,241,100,56,88,29,33,251,2,0 // vaddps 0x2fb21(%rip){1to8},%ymm3,%ymm3 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 98,242,45,56,188,29,27,251,2,0 // vfnmadd231ps 0x2fb1b(%rip){1to8},%ymm10,%ymm3 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
- .byte 196,98,125,24,29,22,251,2,0 // vbroadcastss 0x2fb16(%rip),%ymm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,241,100,56,88,29,85,245,2,0 // vaddps 0x2f555(%rip){1to8},%ymm3,%ymm3 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
+ .byte 98,242,45,56,188,29,79,245,2,0 // vfnmadd231ps 0x2f54f(%rip){1to8},%ymm10,%ymm3 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
+ .byte 196,98,125,24,29,74,245,2,0 // vbroadcastss 0x2f54a(%rip),%ymm11 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,12,251,2,0 // vbroadcastss 0x2fb0c(%rip),%ymm11 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,64,245,2,0 // vbroadcastss 0x2f540(%rip),%ymm11 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 98,241,100,56,89,29,252,250,2,0 // vmulps 0x2fafc(%rip){1to8},%ymm3,%ymm3 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,241,100,56,89,29,48,245,2,0 // vmulps 0x2f530(%rip){1to8},%ymm3,%ymm3 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,219 // vaddps %ymm3,%ymm10,%ymm3
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 98,241,100,56,93,29,20,250,2,0 // vminps 0x2fa14(%rip){1to8},%ymm3,%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,100,56,93,29,72,244,2,0 // vminps 0x2f448(%rip){1to8},%ymm3,%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12313,33 +12310,33 @@ _sk_gamma_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,226,125,40,24,48 // vbroadcastss (%rax),%ymm22
.byte 197,124,91,200 // vcvtdq2ps %ymm0,%ymm9
- .byte 196,98,125,24,21,147,250,2,0 // vbroadcastss 0x2fa93(%rip),%ymm10 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
- .byte 196,98,125,24,29,142,250,2,0 // vbroadcastss 0x2fa8e(%rip),%ymm11 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,21,199,244,2,0 // vbroadcastss 0x2f4c7(%rip),%ymm10 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,29,194,244,2,0 // vbroadcastss 0x2f4c2(%rip),%ymm11 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 196,193,124,84,195 // vandps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,37,224,249,2,0 // vbroadcastss 0x2f9e0(%rip),%ymm12 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,37,20,244,2,0 // vbroadcastss 0x2f414(%rip),%ymm12 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,118,250,2,0 // vbroadcastss 0x2fa76(%rip),%ymm13 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,45,170,244,2,0 // vbroadcastss 0x2f4aa(%rip),%ymm13 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,66,45,168,205 // vfmadd213ps %ymm13,%ymm10,%ymm9
- .byte 196,98,125,24,53,108,250,2,0 // vbroadcastss 0x2fa6c(%rip),%ymm14 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,53,160,244,2,0 // vbroadcastss 0x2f4a0(%rip),%ymm14 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,66,125,188,206 // vfnmadd231ps %ymm14,%ymm0,%ymm9
- .byte 196,98,125,24,61,98,250,2,0 // vbroadcastss 0x2fa62(%rip),%ymm15 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,61,150,244,2,0 // vbroadcastss 0x2f496(%rip),%ymm15 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 98,226,125,40,24,5,87,250,2,0 // vbroadcastss 0x2fa57(%rip),%ymm16 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,226,125,40,24,5,139,244,2,0 // vbroadcastss 0x2f48b(%rip),%ymm16 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 98,241,124,32,94,192 // vdivps %ymm0,%ymm16,%ymm0
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 98,177,124,40,89,198 // vmulps %ymm22,%ymm0,%ymm0
.byte 196,99,125,8,200,1 // vroundps $0x1,%ymm0,%ymm9
.byte 196,65,124,92,201 // vsubps %ymm9,%ymm0,%ymm9
- .byte 98,226,125,40,24,13,54,250,2,0 // vbroadcastss 0x2fa36(%rip),%ymm17 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 98,226,125,40,24,13,106,244,2,0 // vbroadcastss 0x2f46a(%rip),%ymm17 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 98,177,124,40,88,193 // vaddps %ymm17,%ymm0,%ymm0
- .byte 98,226,125,40,24,21,42,250,2,0 // vbroadcastss 0x2fa2a(%rip),%ymm18 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 98,226,125,40,24,21,94,244,2,0 // vbroadcastss 0x2f45e(%rip),%ymm18 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 98,178,53,40,188,194 // vfnmadd231ps %ymm18,%ymm9,%ymm0
- .byte 98,226,125,40,24,29,30,250,2,0 // vbroadcastss 0x2fa1e(%rip),%ymm19 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,226,125,40,24,29,82,244,2,0 // vbroadcastss 0x2f452(%rip),%ymm19 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 98,81,100,32,92,201 // vsubps %ymm9,%ymm19,%ymm9
- .byte 98,226,125,40,24,37,18,250,2,0 // vbroadcastss 0x2fa12(%rip),%ymm20 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 98,226,125,40,24,37,70,244,2,0 // vbroadcastss 0x2f446(%rip),%ymm20 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 98,81,92,32,94,201 // vdivps %ymm9,%ymm20,%ymm9
.byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0
- .byte 196,98,125,24,13,2,250,2,0 // vbroadcastss 0x2fa02(%rip),%ymm9 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,13,54,244,2,0 // vbroadcastss 0x2f436(%rip),%ymm9 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 98,225,124,40,91,233 // vcvtdq2ps %ymm1,%ymm21
@@ -12385,23 +12382,23 @@ HIDDEN _sk_lab_to_xyz_skx
.globl _sk_lab_to_xyz_skx
FUNCTION(_sk_lab_to_xyz_skx)
_sk_lab_to_xyz_skx:
- .byte 196,98,125,24,5,46,249,2,0 // vbroadcastss 0x2f92e(%rip),%ymm8 # 32b6c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
- .byte 196,98,125,24,13,141,248,2,0 // vbroadcastss 0x2f88d(%rip),%ymm9 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,125,24,21,32,249,2,0 // vbroadcastss 0x2f920(%rip),%ymm10 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,5,98,243,2,0 // vbroadcastss 0x2f362(%rip),%ymm8 # 3259c <_sk_srcover_rgba_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,193,242,2,0 // vbroadcastss 0x2f2c1(%rip),%ymm9 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,84,243,2,0 // vbroadcastss 0x2f354(%rip),%ymm10 # 325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 98,114,125,56,168,5,16,249,2,0 // vfmadd213ps 0x2f910(%rip){1to8},%ymm0,%ymm8 # 32b74 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
- .byte 98,241,60,56,89,5,10,249,2,0 // vmulps 0x2f90a(%rip){1to8},%ymm8,%ymm0 # 32b78 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
- .byte 98,242,125,56,152,13,4,249,2,0 // vfmadd132ps 0x2f904(%rip){1to8},%ymm0,%ymm1 # 32b7c <_sk_srcover_rgba_8888_sse2_lowp+0x950>
- .byte 98,242,125,56,156,21,254,248,2,0 // vfnmadd132ps 0x2f8fe(%rip){1to8},%ymm0,%ymm2 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 98,114,125,56,168,5,68,243,2,0 // vfmadd213ps 0x2f344(%rip){1to8},%ymm0,%ymm8 # 325a4 <_sk_srcover_rgba_8888_sse2_lowp+0x37c>
+ .byte 98,241,60,56,89,5,62,243,2,0 // vmulps 0x2f33e(%rip){1to8},%ymm8,%ymm0 # 325a8 <_sk_srcover_rgba_8888_sse2_lowp+0x380>
+ .byte 98,242,125,56,152,13,56,243,2,0 // vfmadd132ps 0x2f338(%rip){1to8},%ymm0,%ymm1 # 325ac <_sk_srcover_rgba_8888_sse2_lowp+0x384>
+ .byte 98,242,125,56,156,21,50,243,2,0 // vfnmadd132ps 0x2f332(%rip){1to8},%ymm0,%ymm2 # 325b0 <_sk_srcover_rgba_8888_sse2_lowp+0x388>
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,240,248,2,0 // vbroadcastss 0x2f8f0(%rip),%ymm9 # 32b84 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,13,36,243,2,0 // vbroadcastss 0x2f324(%rip),%ymm9 # 325b4 <_sk_srcover_rgba_8888_sse2_lowp+0x38c>
.byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,98,125,24,29,222,248,2,0 // vbroadcastss 0x2f8de(%rip),%ymm11 # 32b88 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,98,125,24,29,18,243,2,0 // vbroadcastss 0x2f312(%rip),%ymm11 # 325b8 <_sk_srcover_rgba_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,212,248,2,0 // vbroadcastss 0x2f8d4(%rip),%ymm12 # 32b8c <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,98,125,24,37,8,243,2,0 // vbroadcastss 0x2f308(%rip),%ymm12 # 325bc <_sk_srcover_rgba_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -12418,8 +12415,8 @@ _sk_lab_to_xyz_skx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 98,241,60,56,89,5,121,248,2,0 // vmulps 0x2f879(%rip){1to8},%ymm8,%ymm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
- .byte 98,241,108,56,89,21,115,248,2,0 // vmulps 0x2f873(%rip){1to8},%ymm2,%ymm2 # 32b94 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 98,241,60,56,89,5,173,242,2,0 // vmulps 0x2f2ad(%rip){1to8},%ymm8,%ymm0 # 325c0 <_sk_srcover_rgba_8888_sse2_lowp+0x398>
+ .byte 98,241,108,56,89,21,167,242,2,0 // vmulps 0x2f2a7(%rip){1to8},%ymm2,%ymm2 # 325c4 <_sk_srcover_rgba_8888_sse2_lowp+0x39c>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12434,12 +12431,12 @@ _sk_load_a8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 336e <_sk_load_a8_skx+0x49>
+ .byte 117,49 // jne 336a <_sk_load_a8_skx+0x49>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,5,249,2,0 // vpand 0x2f905(%rip),%xmm0,%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,169,248,2,0 // vpand 0x2f8a9(%rip),%xmm0,%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,194,247,2,0 // vmulps 0x2f7c2(%rip){1to8},%ymm0,%ymm3 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,241,124,56,89,29,246,241,2,0 // vmulps 0x2f1f6(%rip){1to8},%ymm0,%ymm3 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12450,15 +12447,15 @@ _sk_load_a8_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,192 // ja 3343 <_sk_load_a8_skx+0x1e>
+ .byte 119,192 // ja 333f <_sk_load_a8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3414 <_sk_load_a8_skx+0xef>
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3410 <_sk_load_a8_skx+0xef>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,161 // jmp 3343 <_sk_load_a8_skx+0x1e>
+ .byte 235,161 // jmp 333f <_sk_load_a8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -12466,7 +12463,7 @@ _sk_load_a8_skx:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq 3343 <_sk_load_a8_skx+0x1e>
+ .byte 233,119,255,255,255 // jmpq 333f <_sk_load_a8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -12479,7 +12476,7 @@ _sk_load_a8_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,50,255,255,255 // jmpq 3343 <_sk_load_a8_skx+0x1e>
+ .byte 233,50,255,255,255 // jmpq 333f <_sk_load_a8_skx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 131,255,255 // cmp $0xffffffff,%edi
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
@@ -12511,12 +12508,12 @@ _sk_load_a8_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 3479 <_sk_load_a8_dst_skx+0x49>
+ .byte 117,49 // jne 3475 <_sk_load_a8_dst_skx+0x49>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,250,247,2,0 // vpand 0x2f7fa(%rip),%xmm4,%xmm4 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,158,247,2,0 // vpand 0x2f79e(%rip),%xmm4,%xmm4 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,61,183,246,2,0 // vmulps 0x2f6b7(%rip){1to8},%ymm4,%ymm7 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,241,92,56,89,61,235,240,2,0 // vmulps 0x2f0eb(%rip){1to8},%ymm4,%ymm7 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12527,15 +12524,15 @@ _sk_load_a8_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,192 // ja 344e <_sk_load_a8_dst_skx+0x1e>
+ .byte 119,192 // ja 344a <_sk_load_a8_dst_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 351c <_sk_load_a8_dst_skx+0xec>
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 3518 <_sk_load_a8_dst_skx+0xec>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,161 // jmp 344e <_sk_load_a8_dst_skx+0x1e>
+ .byte 235,161 // jmp 344a <_sk_load_a8_dst_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -12543,7 +12540,7 @@ _sk_load_a8_dst_skx:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq 344e <_sk_load_a8_dst_skx+0x1e>
+ .byte 233,119,255,255,255 // jmpq 344a <_sk_load_a8_dst_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -12556,7 +12553,7 @@ _sk_load_a8_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,50,255,255,255 // jmpq 344e <_sk_load_a8_dst_skx+0x1e>
+ .byte 233,50,255,255,255 // jmpq 344a <_sk_load_a8_dst_skx+0x1e>
.byte 134,255 // xchg %bh,%bh
.byte 255 // (bad)
.byte 255,160,255,255,255,145 // jmpq *-0x6e000001(%rax)
@@ -12632,7 +12629,7 @@ _sk_gather_a8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,250,244,2,0 // vmulps 0x2f4fa(%rip){1to8},%ymm0,%ymm3 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,241,124,56,89,29,46,239,2,0 // vmulps 0x2ef2e(%rip){1to8},%ymm0,%ymm3 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12653,13 +12650,13 @@ _sk_store_a8_skx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 98,113,100,56,89,5,122,244,2,0 // vmulps 0x2f47a(%rip){1to8},%ymm3,%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 98,113,100,56,89,5,174,238,2,0 // vmulps 0x2eeae(%rip){1to8},%ymm3,%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 367d <_sk_store_a8_skx+0x40>
+ .byte 117,10 // jne 3679 <_sk_store_a8_skx+0x40>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12667,25 +12664,25 @@ _sk_store_a8_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 3679 <_sk_store_a8_skx+0x3c>
+ .byte 119,235 // ja 3675 <_sk_store_a8_skx+0x3c>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 36ec <_sk_store_a8_skx+0xaf>
+ .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 36e8 <_sk_store_a8_skx+0xaf>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,201 // jmp 3679 <_sk_store_a8_skx+0x3c>
+ .byte 235,201 // jmp 3675 <_sk_store_a8_skx+0x3c>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
.byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
.byte 98,18,126,8,50,4,24 // vpmovqb %xmm8,(%r8,%r11,1)
- .byte 235,179 // jmp 3679 <_sk_store_a8_skx+0x3c>
+ .byte 235,179 // jmp 3675 <_sk_store_a8_skx+0x3c>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 98,18,126,8,49,4,24 // vpmovdb %xmm8,(%r8,%r11,1)
- .byte 235,141 // jmp 3679 <_sk_store_a8_skx+0x3c>
+ .byte 235,141 // jmp 3675 <_sk_store_a8_skx+0x3c>
.byte 187,255,255,255,204 // mov $0xccffffff,%ebx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12718,14 +12715,14 @@ _sk_load_g8_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3756 <_sk_load_g8_skx+0x4e>
+ .byte 117,54 // jne 3752 <_sk_load_g8_skx+0x4e>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,34,245,2,0 // vpand 0x2f522(%rip),%xmm0,%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,198,244,2,0 // vpand 0x2f4c6(%rip),%xmm0,%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,223,243,2,0 // vmulps 0x2f3df(%rip){1to8},%ymm0,%ymm0 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,241,124,56,89,5,19,238,2,0 // vmulps 0x2ee13(%rip){1to8},%ymm0,%ymm0 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,92,243,2,0 // vbroadcastss 0x2f35c(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,144,237,2,0 // vbroadcastss 0x2ed90(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -12734,15 +12731,15 @@ _sk_load_g8_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,187 // ja 3726 <_sk_load_g8_skx+0x1e>
+ .byte 119,187 // ja 3722 <_sk_load_g8_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 37fc <_sk_load_g8_skx+0xf4>
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 37f8 <_sk_load_g8_skx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,156 // jmp 3726 <_sk_load_g8_skx+0x1e>
+ .byte 235,156 // jmp 3722 <_sk_load_g8_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -12750,7 +12747,7 @@ _sk_load_g8_skx:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq 3726 <_sk_load_g8_skx+0x1e>
+ .byte 233,114,255,255,255 // jmpq 3722 <_sk_load_g8_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -12763,7 +12760,7 @@ _sk_load_g8_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,45,255,255,255 // jmpq 3726 <_sk_load_g8_skx+0x1e>
+ .byte 233,45,255,255,255 // jmpq 3722 <_sk_load_g8_skx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 131,255,255 // cmp $0xffffffff,%edi
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
@@ -12795,14 +12792,14 @@ _sk_load_g8_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3866 <_sk_load_g8_dst_skx+0x4e>
+ .byte 117,54 // jne 3862 <_sk_load_g8_dst_skx+0x4e>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,18,244,2,0 // vpand 0x2f412(%rip),%xmm4,%xmm4 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,182,243,2,0 // vpand 0x2f3b6(%rip),%xmm4,%xmm4 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,207,242,2,0 // vmulps 0x2f2cf(%rip){1to8},%ymm4,%ymm4 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,241,92,56,89,37,3,237,2,0 // vmulps 0x2ed03(%rip){1to8},%ymm4,%ymm4 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,76,242,2,0 // vbroadcastss 0x2f24c(%rip),%ymm7 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,61,128,236,2,0 // vbroadcastss 0x2ec80(%rip),%ymm7 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -12811,15 +12808,15 @@ _sk_load_g8_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,187 // ja 3836 <_sk_load_g8_dst_skx+0x1e>
+ .byte 119,187 // ja 3832 <_sk_load_g8_dst_skx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 390c <_sk_load_g8_dst_skx+0xf4>
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3908 <_sk_load_g8_dst_skx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,156 // jmp 3836 <_sk_load_g8_dst_skx+0x1e>
+ .byte 235,156 // jmp 3832 <_sk_load_g8_dst_skx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -12827,7 +12824,7 @@ _sk_load_g8_dst_skx:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq 3836 <_sk_load_g8_dst_skx+0x1e>
+ .byte 233,114,255,255,255 // jmpq 3832 <_sk_load_g8_dst_skx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -12840,7 +12837,7 @@ _sk_load_g8_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,45,255,255,255 // jmpq 3836 <_sk_load_g8_dst_skx+0x1e>
+ .byte 233,45,255,255,255 // jmpq 3832 <_sk_load_g8_dst_skx+0x1e>
.byte 15,31,0 // nopl (%rax)
.byte 131,255,255 // cmp $0xffffffff,%edi
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
@@ -12916,9 +12913,9 @@ _sk_gather_g8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,10,241,2,0 // vmulps 0x2f10a(%rip){1to8},%ymm0,%ymm0 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,241,124,56,89,5,62,235,2,0 // vmulps 0x2eb3e(%rip){1to8},%ymm0,%ymm0 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,135,240,2,0 // vbroadcastss 0x2f087(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,187,234,2,0 // vbroadcastss 0x2eabb(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -12939,42 +12936,42 @@ _sk_load_565_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 3aad <_sk_load_565_skx+0x7b>
+ .byte 117,96 // jne 3aa9 <_sk_load_565_skx+0x7b>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,194,240,2,0 // vpandd 0x2f0c2(%rip){1to8},%ymm2,%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 98,241,109,56,219,5,246,234,2,0 // vpandd 0x2eaf6(%rip){1to8},%ymm2,%ymm0 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,184,240,2,0 // vmulps 0x2f0b8(%rip){1to8},%ymm0,%ymm0 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
- .byte 98,241,109,56,219,13,178,240,2,0 // vpandd 0x2f0b2(%rip){1to8},%ymm2,%ymm1 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,124,56,89,5,236,234,2,0 // vmulps 0x2eaec(%rip){1to8},%ymm0,%ymm0 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,230,234,2,0 // vpandd 0x2eae6(%rip){1to8},%ymm2,%ymm1 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,168,240,2,0 // vmulps 0x2f0a8(%rip){1to8},%ymm1,%ymm1 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 98,241,109,56,219,21,162,240,2,0 // vpandd 0x2f0a2(%rip){1to8},%ymm2,%ymm2 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,241,116,56,89,13,220,234,2,0 // vmulps 0x2eadc(%rip){1to8},%ymm1,%ymm1 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,214,234,2,0 // vpandd 0x2ead6(%rip){1to8},%ymm2,%ymm2 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,152,240,2,0 // vmulps 0x2f098(%rip){1to8},%ymm2,%ymm2 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,108,56,89,21,204,234,2,0 // vmulps 0x2eacc(%rip){1to8},%ymm2,%ymm2 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,253,239,2,0 // vbroadcastss 0x2effd(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,49,234,2,0 // vbroadcastss 0x2ea31(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,145 // ja 3a53 <_sk_load_565_skx+0x21>
+ .byte 119,145 // ja 3a4f <_sk_load_565_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 3b48 <_sk_load_565_skx+0x116>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 3b44 <_sk_load_565_skx+0x116>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,111,255,255,255 // jmpq 3a53 <_sk_load_565_skx+0x21>
+ .byte 233,111,255,255,255 // jmpq 3a4f <_sk_load_565_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,72,255,255,255 // jmpq 3a53 <_sk_load_565_skx+0x21>
+ .byte 233,72,255,255,255 // jmpq 3a4f <_sk_load_565_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
@@ -12984,7 +12981,7 @@ _sk_load_565_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
.byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,14,255,255,255 // jmpq 3a53 <_sk_load_565_skx+0x21>
+ .byte 233,14,255,255,255 // jmpq 3a4f <_sk_load_565_skx+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -13017,42 +13014,42 @@ _sk_load_565_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 3bdf <_sk_load_565_dst_skx+0x7b>
+ .byte 117,96 // jne 3bdb <_sk_load_565_dst_skx+0x7b>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 98,241,77,56,219,37,144,239,2,0 // vpandd 0x2ef90(%rip){1to8},%ymm6,%ymm4 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 98,241,77,56,219,37,196,233,2,0 // vpandd 0x2e9c4(%rip){1to8},%ymm6,%ymm4 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,134,239,2,0 // vmulps 0x2ef86(%rip){1to8},%ymm4,%ymm4 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
- .byte 98,241,77,56,219,45,128,239,2,0 // vpandd 0x2ef80(%rip){1to8},%ymm6,%ymm5 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,92,56,89,37,186,233,2,0 // vmulps 0x2e9ba(%rip){1to8},%ymm4,%ymm4 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
+ .byte 98,241,77,56,219,45,180,233,2,0 // vpandd 0x2e9b4(%rip){1to8},%ymm6,%ymm5 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,118,239,2,0 // vmulps 0x2ef76(%rip){1to8},%ymm5,%ymm5 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 98,241,77,56,219,53,112,239,2,0 // vpandd 0x2ef70(%rip){1to8},%ymm6,%ymm6 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,241,84,56,89,45,170,233,2,0 // vmulps 0x2e9aa(%rip){1to8},%ymm5,%ymm5 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
+ .byte 98,241,77,56,219,53,164,233,2,0 // vpandd 0x2e9a4(%rip){1to8},%ymm6,%ymm6 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,102,239,2,0 // vmulps 0x2ef66(%rip){1to8},%ymm6,%ymm6 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,76,56,89,53,154,233,2,0 // vmulps 0x2e99a(%rip){1to8},%ymm6,%ymm6 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,203,238,2,0 // vbroadcastss 0x2eecb(%rip),%ymm7 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,61,255,232,2,0 // vbroadcastss 0x2e8ff(%rip),%ymm7 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,145 // ja 3b85 <_sk_load_565_dst_skx+0x21>
+ .byte 119,145 // ja 3b81 <_sk_load_565_dst_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 3c78 <_sk_load_565_dst_skx+0x114>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 3c74 <_sk_load_565_dst_skx+0x114>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,111,255,255,255 // jmpq 3b85 <_sk_load_565_dst_skx+0x21>
+ .byte 233,111,255,255,255 // jmpq 3b81 <_sk_load_565_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,72,255,255,255 // jmpq 3b85 <_sk_load_565_dst_skx+0x21>
+ .byte 233,72,255,255,255 // jmpq 3b81 <_sk_load_565_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
@@ -13062,7 +13059,7 @@ _sk_load_565_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
.byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,14,255,255,255 // jmpq 3b85 <_sk_load_565_dst_skx+0x21>
+ .byte 233,14,255,255,255 // jmpq 3b81 <_sk_load_565_dst_skx+0x21>
.byte 144 // nop
.byte 144 // nop
.byte 255 // (bad)
@@ -13138,17 +13135,17 @@ _sk_gather_565_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,171,237,2,0 // vpandd 0x2edab(%rip){1to8},%ymm2,%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 98,241,109,56,219,5,223,231,2,0 // vpandd 0x2e7df(%rip){1to8},%ymm2,%ymm0 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,161,237,2,0 // vmulps 0x2eda1(%rip){1to8},%ymm0,%ymm0 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
- .byte 98,241,109,56,219,13,155,237,2,0 // vpandd 0x2ed9b(%rip){1to8},%ymm2,%ymm1 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,124,56,89,5,213,231,2,0 // vmulps 0x2e7d5(%rip){1to8},%ymm0,%ymm0 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
+ .byte 98,241,109,56,219,13,207,231,2,0 // vpandd 0x2e7cf(%rip){1to8},%ymm2,%ymm1 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,145,237,2,0 // vmulps 0x2ed91(%rip){1to8},%ymm1,%ymm1 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
- .byte 98,241,109,56,219,21,139,237,2,0 // vpandd 0x2ed8b(%rip){1to8},%ymm2,%ymm2 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,241,116,56,89,13,197,231,2,0 // vmulps 0x2e7c5(%rip){1to8},%ymm1,%ymm1 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
+ .byte 98,241,109,56,219,21,191,231,2,0 // vpandd 0x2e7bf(%rip){1to8},%ymm2,%ymm2 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,129,237,2,0 // vmulps 0x2ed81(%rip){1to8},%ymm2,%ymm2 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,108,56,89,21,181,231,2,0 // vmulps 0x2e7b5(%rip){1to8},%ymm2,%ymm2 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,230,236,2,0 // vbroadcastss 0x2ece6(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,26,231,2,0 // vbroadcastss 0x2e71a(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -13166,11 +13163,11 @@ _sk_store_565_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,174,237,2,0 // vbroadcastss 0x2edae(%rip),%ymm8 # 32b98 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,98,125,24,5,226,231,2,0 // vbroadcastss 0x2e7e2(%rip),%ymm8 # 325c8 <_sk_srcover_rgba_8888_sse2_lowp+0x3a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 98,113,116,56,89,21,152,237,2,0 // vmulps 0x2ed98(%rip){1to8},%ymm1,%ymm10 # 32b9c <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 98,113,116,56,89,21,204,231,2,0 // vmulps 0x2e7cc(%rip){1to8},%ymm1,%ymm10 # 325cc <_sk_srcover_rgba_8888_sse2_lowp+0x3a4>
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
.byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
@@ -13180,7 +13177,7 @@ _sk_store_565_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 3e3d <_sk_store_565_skx+0x72>
+ .byte 117,10 // jne 3e39 <_sk_store_565_skx+0x72>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13188,24 +13185,24 @@ _sk_store_565_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 3e39 <_sk_store_565_skx+0x6e>
+ .byte 119,235 // ja 3e35 <_sk_store_565_skx+0x6e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 3ea8 <_sk_store_565_skx+0xdd>
+ .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 3ea4 <_sk_store_565_skx+0xdd>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,206 // jmp 3e39 <_sk_store_565_skx+0x6e>
+ .byte 235,206 // jmp 3e35 <_sk_store_565_skx+0x6e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
.byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2)
- .byte 235,184 // jmp 3e39 <_sk_store_565_skx+0x6e>
+ .byte 235,184 // jmp 3e35 <_sk_store_565_skx+0x6e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2)
- .byte 235,146 // jmp 3e39 <_sk_store_565_skx+0x6e>
+ .byte 235,146 // jmp 3e35 <_sk_store_565_skx+0x6e>
.byte 144 // nop
.byte 186,255,255,255,203 // mov $0xcbffffff,%edx
.byte 255 // (bad)
@@ -13217,7 +13214,7 @@ _sk_store_565_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,225 // jmpq ffffffffe2003ebc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe1fd1c90>
+ .byte 233,255,255,255,225 // jmpq ffffffffe2003eb8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe1fd1c90>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13237,21 +13234,21 @@ _sk_load_4444_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 3f4e <_sk_load_4444_skx+0x8a>
+ .byte 117,111 // jne 3f4a <_sk_load_4444_skx+0x8a>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,172,236,2,0 // vpandd 0x2ecac(%rip){1to8},%ymm3,%ymm0 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 98,241,101,56,219,5,224,230,2,0 // vpandd 0x2e6e0(%rip){1to8},%ymm3,%ymm0 # 325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,162,236,2,0 // vmulps 0x2eca2(%rip){1to8},%ymm0,%ymm0 # 32ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
- .byte 98,241,101,56,219,13,156,236,2,0 // vpandd 0x2ec9c(%rip){1to8},%ymm3,%ymm1 # 32ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 98,241,124,56,89,5,214,230,2,0 // vmulps 0x2e6d6(%rip){1to8},%ymm0,%ymm0 # 325d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,208,230,2,0 // vpandd 0x2e6d0(%rip){1to8},%ymm3,%ymm1 # 325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,146,236,2,0 // vmulps 0x2ec92(%rip){1to8},%ymm1,%ymm1 # 32bac <_sk_srcover_rgba_8888_sse2_lowp+0x980>
- .byte 98,241,101,56,219,21,140,236,2,0 // vpandd 0x2ec8c(%rip){1to8},%ymm3,%ymm2 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 98,241,116,56,89,13,198,230,2,0 // vmulps 0x2e6c6(%rip){1to8},%ymm1,%ymm1 # 325dc <_sk_srcover_rgba_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,192,230,2,0 // vpandd 0x2e6c0(%rip){1to8},%ymm3,%ymm2 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,130,236,2,0 // vmulps 0x2ec82(%rip){1to8},%ymm2,%ymm2 # 32bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
- .byte 98,241,101,56,219,29,124,236,2,0 // vpandd 0x2ec7c(%rip){1to8},%ymm3,%ymm3 # 32bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 98,241,108,56,89,21,182,230,2,0 // vmulps 0x2e6b6(%rip){1to8},%ymm2,%ymm2 # 325e4 <_sk_srcover_rgba_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,176,230,2,0 // vpandd 0x2e6b0(%rip){1to8},%ymm3,%ymm3 # 325e8 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,114,236,2,0 // vmulps 0x2ec72(%rip){1to8},%ymm3,%ymm3 # 32bbc <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,100,56,89,29,166,230,2,0 // vmulps 0x2e6a6(%rip){1to8},%ymm3,%ymm3 # 325ec <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -13259,22 +13256,22 @@ _sk_load_4444_skx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 3ee5 <_sk_load_4444_skx+0x21>
+ .byte 119,130 // ja 3ee1 <_sk_load_4444_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 3fe8 <_sk_load_4444_skx+0x124>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 3fe4 <_sk_load_4444_skx+0x124>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,96,255,255,255 // jmpq 3ee5 <_sk_load_4444_skx+0x21>
+ .byte 233,96,255,255,255 // jmpq 3ee1 <_sk_load_4444_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,57,255,255,255 // jmpq 3ee5 <_sk_load_4444_skx+0x21>
+ .byte 233,57,255,255,255 // jmpq 3ee1 <_sk_load_4444_skx+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
@@ -13284,7 +13281,7 @@ _sk_load_4444_skx:
.byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
.byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
.byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,255,254,255,255 // jmpq 3ee5 <_sk_load_4444_skx+0x21>
+ .byte 233,255,254,255,255 // jmpq 3ee1 <_sk_load_4444_skx+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 143 // (bad)
.byte 255 // (bad)
@@ -13318,21 +13315,21 @@ _sk_load_4444_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 408e <_sk_load_4444_dst_skx+0x8a>
+ .byte 117,111 // jne 408a <_sk_load_4444_dst_skx+0x8a>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 98,241,69,56,219,37,108,235,2,0 // vpandd 0x2eb6c(%rip){1to8},%ymm7,%ymm4 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 98,241,69,56,219,37,160,229,2,0 // vpandd 0x2e5a0(%rip){1to8},%ymm7,%ymm4 # 325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a8>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,98,235,2,0 // vmulps 0x2eb62(%rip){1to8},%ymm4,%ymm4 # 32ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
- .byte 98,241,69,56,219,45,92,235,2,0 // vpandd 0x2eb5c(%rip){1to8},%ymm7,%ymm5 # 32ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 98,241,92,56,89,37,150,229,2,0 // vmulps 0x2e596(%rip){1to8},%ymm4,%ymm4 # 325d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3ac>
+ .byte 98,241,69,56,219,45,144,229,2,0 // vpandd 0x2e590(%rip){1to8},%ymm7,%ymm5 # 325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3b0>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,82,235,2,0 // vmulps 0x2eb52(%rip){1to8},%ymm5,%ymm5 # 32bac <_sk_srcover_rgba_8888_sse2_lowp+0x980>
- .byte 98,241,69,56,219,53,76,235,2,0 // vpandd 0x2eb4c(%rip){1to8},%ymm7,%ymm6 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 98,241,84,56,89,45,134,229,2,0 // vmulps 0x2e586(%rip){1to8},%ymm5,%ymm5 # 325dc <_sk_srcover_rgba_8888_sse2_lowp+0x3b4>
+ .byte 98,241,69,56,219,53,128,229,2,0 // vpandd 0x2e580(%rip){1to8},%ymm7,%ymm6 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3b8>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,66,235,2,0 // vmulps 0x2eb42(%rip){1to8},%ymm6,%ymm6 # 32bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
- .byte 98,241,69,56,219,61,60,235,2,0 // vpandd 0x2eb3c(%rip){1to8},%ymm7,%ymm7 # 32bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 98,241,76,56,89,53,118,229,2,0 // vmulps 0x2e576(%rip){1to8},%ymm6,%ymm6 # 325e4 <_sk_srcover_rgba_8888_sse2_lowp+0x3bc>
+ .byte 98,241,69,56,219,61,112,229,2,0 // vpandd 0x2e570(%rip){1to8},%ymm7,%ymm7 # 325e8 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 98,241,68,56,89,61,50,235,2,0 // vmulps 0x2eb32(%rip){1to8},%ymm7,%ymm7 # 32bbc <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,68,56,89,61,102,229,2,0 // vmulps 0x2e566(%rip){1to8},%ymm7,%ymm7 # 325ec <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -13340,22 +13337,22 @@ _sk_load_4444_dst_skx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 4025 <_sk_load_4444_dst_skx+0x21>
+ .byte 119,130 // ja 4021 <_sk_load_4444_dst_skx+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 4128 <_sk_load_4444_dst_skx+0x124>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 4124 <_sk_load_4444_dst_skx+0x124>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,96,255,255,255 // jmpq 4025 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,96,255,255,255 // jmpq 4021 <_sk_load_4444_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,57,255,255,255 // jmpq 4025 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,57,255,255,255 // jmpq 4021 <_sk_load_4444_dst_skx+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
@@ -13365,7 +13362,7 @@ _sk_load_4444_dst_skx:
.byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
.byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
.byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,255,254,255,255 // jmpq 4025 <_sk_load_4444_dst_skx+0x21>
+ .byte 233,255,254,255,255 // jmpq 4021 <_sk_load_4444_dst_skx+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 143 // (bad)
.byte 255 // (bad)
@@ -13441,18 +13438,18 @@ _sk_gather_4444_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,119,233,2,0 // vpandd 0x2e977(%rip){1to8},%ymm3,%ymm0 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 98,241,101,56,219,5,171,227,2,0 // vpandd 0x2e3ab(%rip){1to8},%ymm3,%ymm0 # 325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,109,233,2,0 // vmulps 0x2e96d(%rip){1to8},%ymm0,%ymm0 # 32ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
- .byte 98,241,101,56,219,13,103,233,2,0 // vpandd 0x2e967(%rip){1to8},%ymm3,%ymm1 # 32ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 98,241,124,56,89,5,161,227,2,0 // vmulps 0x2e3a1(%rip){1to8},%ymm0,%ymm0 # 325d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3ac>
+ .byte 98,241,101,56,219,13,155,227,2,0 // vpandd 0x2e39b(%rip){1to8},%ymm3,%ymm1 # 325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3b0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,93,233,2,0 // vmulps 0x2e95d(%rip){1to8},%ymm1,%ymm1 # 32bac <_sk_srcover_rgba_8888_sse2_lowp+0x980>
- .byte 98,241,101,56,219,21,87,233,2,0 // vpandd 0x2e957(%rip){1to8},%ymm3,%ymm2 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 98,241,116,56,89,13,145,227,2,0 // vmulps 0x2e391(%rip){1to8},%ymm1,%ymm1 # 325dc <_sk_srcover_rgba_8888_sse2_lowp+0x3b4>
+ .byte 98,241,101,56,219,21,139,227,2,0 // vpandd 0x2e38b(%rip){1to8},%ymm3,%ymm2 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3b8>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,77,233,2,0 // vmulps 0x2e94d(%rip){1to8},%ymm2,%ymm2 # 32bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
- .byte 98,241,101,56,219,29,71,233,2,0 // vpandd 0x2e947(%rip){1to8},%ymm3,%ymm3 # 32bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 98,241,108,56,89,21,129,227,2,0 // vmulps 0x2e381(%rip){1to8},%ymm2,%ymm2 # 325e4 <_sk_srcover_rgba_8888_sse2_lowp+0x3bc>
+ .byte 98,241,101,56,219,29,123,227,2,0 // vpandd 0x2e37b(%rip){1to8},%ymm3,%ymm3 # 325e8 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,61,233,2,0 // vmulps 0x2e93d(%rip){1to8},%ymm3,%ymm3 # 32bbc <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,100,56,89,29,113,227,2,0 // vmulps 0x2e371(%rip){1to8},%ymm3,%ymm3 # 325ec <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -13471,7 +13468,7 @@ _sk_store_4444_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,23,233,2,0 // vbroadcastss 0x2e917(%rip),%ymm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,75,227,2,0 // vbroadcastss 0x2e34b(%rip),%ymm8 # 325f0 <_sk_srcover_rgba_8888_sse2_lowp+0x3c8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -13489,7 +13486,7 @@ _sk_store_4444_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 430c <_sk_store_4444_skx+0x82>
+ .byte 117,10 // jne 4308 <_sk_store_4444_skx+0x82>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13497,24 +13494,24 @@ _sk_store_4444_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4308 <_sk_store_4444_skx+0x7e>
+ .byte 119,235 // ja 4304 <_sk_store_4444_skx+0x7e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 4378 <_sk_store_4444_skx+0xee>
+ .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 4374 <_sk_store_4444_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,206 // jmp 4308 <_sk_store_4444_skx+0x7e>
+ .byte 235,206 // jmp 4304 <_sk_store_4444_skx+0x7e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
.byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2)
- .byte 235,184 // jmp 4308 <_sk_store_4444_skx+0x7e>
+ .byte 235,184 // jmp 4304 <_sk_store_4444_skx+0x7e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2)
- .byte 235,146 // jmp 4308 <_sk_store_4444_skx+0x7e>
+ .byte 235,146 // jmp 4304 <_sk_store_4444_skx+0x7e>
.byte 102,144 // xchg %ax,%ax
.byte 185,255,255,255,202 // mov $0xcaffffff,%ecx
.byte 255 // (bad)
@@ -13526,7 +13523,7 @@ _sk_store_4444_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100438c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd2160>
+ .byte 232,255,255,255,224 // callq ffffffffe1004388 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd2160>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13546,13 +13543,13 @@ _sk_load_8888_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4411 <_sk_load_8888_skx+0x7d>
+ .byte 117,97 // jne 440d <_sk_load_8888_skx+0x7d>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,78,231,2,0 // vbroadcastss 0x2e74e(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,130,225,2,0 // vbroadcastss 0x2e182(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -13572,14 +13569,14 @@ _sk_load_8888_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 43b6 <_sk_load_8888_skx+0x22>
+ .byte 119,144 // ja 43b2 <_sk_load_8888_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 44bc <_sk_load_8888_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 44b8 <_sk_load_8888_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 43b6 <_sk_load_8888_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 43b2 <_sk_load_8888_skx+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13587,7 +13584,7 @@ _sk_load_8888_skx:
.byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,72,255,255,255 // jmpq 43b6 <_sk_load_8888_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 43b2 <_sk_load_8888_skx+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13600,9 +13597,9 @@ _sk_load_8888_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,252,254,255,255 // jmpq 43b6 <_sk_load_8888_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 43b2 <_sk_load_8888_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 44bd <_sk_load_8888_skx+0x129>
+ .byte 126,255 // jle 44b9 <_sk_load_8888_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -13633,13 +13630,13 @@ _sk_load_8888_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4555 <_sk_load_8888_dst_skx+0x7d>
+ .byte 117,97 // jne 4551 <_sk_load_8888_dst_skx+0x7d>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,10,230,2,0 // vbroadcastss 0x2e60a(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,62,224,2,0 // vbroadcastss 0x2e03e(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
.byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
@@ -13659,14 +13656,14 @@ _sk_load_8888_dst_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 44fa <_sk_load_8888_dst_skx+0x22>
+ .byte 119,144 // ja 44f6 <_sk_load_8888_dst_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4600 <_sk_load_8888_dst_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 45fc <_sk_load_8888_dst_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 44fa <_sk_load_8888_dst_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 44f6 <_sk_load_8888_dst_skx+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13674,7 +13671,7 @@ _sk_load_8888_dst_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,72,255,255,255 // jmpq 44fa <_sk_load_8888_dst_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 44f6 <_sk_load_8888_dst_skx+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13687,9 +13684,9 @@ _sk_load_8888_dst_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,252,254,255,255 // jmpq 44fa <_sk_load_8888_dst_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 44f6 <_sk_load_8888_dst_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 4601 <_sk_load_8888_dst_skx+0x129>
+ .byte 126,255 // jle 45fd <_sk_load_8888_dst_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -13733,7 +13730,7 @@ _sk_gather_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,157,228,2,0 // vbroadcastss 0x2e49d(%rip),%ymm3 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,29,209,222,2,0 // vbroadcastss 0x2ded1(%rip),%ymm3 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -13760,7 +13757,7 @@ _sk_store_8888_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,242,227,2,0 // vbroadcastss 0x2e3f2(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,38,222,2,0 // vbroadcastss 0x2de26(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -13776,7 +13773,7 @@ _sk_store_8888_skx:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 473a <_sk_store_8888_skx+0x78>
+ .byte 117,10 // jne 4736 <_sk_store_8888_skx+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13784,18 +13781,18 @@ _sk_store_8888_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4736 <_sk_store_8888_skx+0x74>
+ .byte 119,235 // ja 4732 <_sk_store_8888_skx+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 47b0 <_sk_store_8888_skx+0xee>
+ .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 47ac <_sk_store_8888_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,207 // jmp 4736 <_sk_store_8888_skx+0x74>
+ .byte 235,207 // jmp 4732 <_sk_store_8888_skx+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 235,185 // jmp 4736 <_sk_store_8888_skx+0x74>
+ .byte 235,185 // jmp 4732 <_sk_store_8888_skx+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -13803,7 +13800,7 @@ _sk_store_8888_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,136 // jmp 4736 <_sk_store_8888_skx+0x74>
+ .byte 235,136 // jmp 4732 <_sk_store_8888_skx+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 175 // scas %es:(%rdi),%eax
.byte 255 // (bad)
@@ -13816,7 +13813,7 @@ _sk_store_8888_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc0047c4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2598>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc0047c0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2598>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -13836,13 +13833,13 @@ _sk_load_bgra_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4849 <_sk_load_bgra_skx+0x7d>
+ .byte 117,97 // jne 4845 <_sk_load_bgra_skx+0x7d>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,22,227,2,0 // vbroadcastss 0x2e316(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,74,221,2,0 // vbroadcastss 0x2dd4a(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
.byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -13862,14 +13859,14 @@ _sk_load_bgra_skx:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 47ee <_sk_load_bgra_skx+0x22>
+ .byte 119,144 // ja 47ea <_sk_load_bgra_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 48f4 <_sk_load_bgra_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 48f0 <_sk_load_bgra_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 47ee <_sk_load_bgra_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 47ea <_sk_load_bgra_skx+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13877,7 +13874,7 @@ _sk_load_bgra_skx:
.byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,72,255,255,255 // jmpq 47ee <_sk_load_bgra_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 47ea <_sk_load_bgra_skx+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13890,9 +13887,9 @@ _sk_load_bgra_skx:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,252,254,255,255 // jmpq 47ee <_sk_load_bgra_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 47ea <_sk_load_bgra_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 48f5 <_sk_load_bgra_skx+0x129>
+ .byte 126,255 // jle 48f1 <_sk_load_bgra_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -13923,13 +13920,13 @@ _sk_load_bgra_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 498d <_sk_load_bgra_dst_skx+0x7d>
+ .byte 117,97 // jne 4989 <_sk_load_bgra_dst_skx+0x7d>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
.byte 184,17,17,17,17 // mov $0x11111111,%eax
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,210,225,2,0 // vbroadcastss 0x2e1d2(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,6,220,2,0 // vbroadcastss 0x2dc06(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
.byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
.byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
@@ -13949,14 +13946,14 @@ _sk_load_bgra_dst_skx:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,144 // ja 4932 <_sk_load_bgra_dst_skx+0x22>
+ .byte 119,144 // ja 492e <_sk_load_bgra_dst_skx+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4a38 <_sk_load_bgra_dst_skx+0x128>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4a34 <_sk_load_bgra_dst_skx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 4932 <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,113,255,255,255 // jmpq 492e <_sk_load_bgra_dst_skx+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 176,4 // mov $0x4,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13964,7 +13961,7 @@ _sk_load_bgra_dst_skx:
.byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
.byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,72,255,255,255 // jmpq 4932 <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,72,255,255,255 // jmpq 492e <_sk_load_bgra_dst_skx+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 176,64 // mov $0x40,%al
.byte 197,251,146,200 // kmovd %eax,%k1
@@ -13977,9 +13974,9 @@ _sk_load_bgra_dst_skx:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,252,254,255,255 // jmpq 4932 <_sk_load_bgra_dst_skx+0x22>
+ .byte 233,252,254,255,255 // jmpq 492e <_sk_load_bgra_dst_skx+0x22>
.byte 102,144 // xchg %ax,%ax
- .byte 126,255 // jle 4a39 <_sk_load_bgra_dst_skx+0x129>
+ .byte 126,255 // jle 4a35 <_sk_load_bgra_dst_skx+0x129>
.byte 255 // (bad)
.byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -14023,7 +14020,7 @@ _sk_gather_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,101,224,2,0 // vbroadcastss 0x2e065(%rip),%ymm3 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,29,153,218,2,0 // vbroadcastss 0x2da99(%rip),%ymm3 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
.byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -14050,7 +14047,7 @@ _sk_store_bgra_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,186,223,2,0 // vbroadcastss 0x2dfba(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,238,217,2,0 // vbroadcastss 0x2d9ee(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -14066,7 +14063,7 @@ _sk_store_bgra_skx:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4b72 <_sk_store_bgra_skx+0x78>
+ .byte 117,10 // jne 4b6e <_sk_store_bgra_skx+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14074,18 +14071,18 @@ _sk_store_bgra_skx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,128,193,255 // add $0xff,%r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,235 // ja 4b6e <_sk_store_bgra_skx+0x74>
+ .byte 119,235 // ja 4b6a <_sk_store_bgra_skx+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 4be8 <_sk_store_bgra_skx+0xee>
+ .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 4be4 <_sk_store_bgra_skx+0xee>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,207 // jmp 4b6e <_sk_store_bgra_skx+0x74>
+ .byte 235,207 // jmp 4b6a <_sk_store_bgra_skx+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
.byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
- .byte 235,185 // jmp 4b6e <_sk_store_bgra_skx+0x74>
+ .byte 235,185 // jmp 4b6a <_sk_store_bgra_skx+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -14093,7 +14090,7 @@ _sk_store_bgra_skx:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,136 // jmp 4b6e <_sk_store_bgra_skx+0x74>
+ .byte 235,136 // jmp 4b6a <_sk_store_bgra_skx+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 175 // scas %es:(%rdi),%eax
.byte 255 // (bad)
@@ -14106,7 +14103,7 @@ _sk_store_bgra_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc004bfc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd29d0>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc004bf8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd29d0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -14126,7 +14123,7 @@ _sk_load_f16_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 4c85 <_sk_load_f16_skx+0x81>
+ .byte 117,101 // jne 4c81 <_sk_load_f16_skx+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,76,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm1
@@ -14152,29 +14149,29 @@ _sk_load_f16_skx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 4ceb <_sk_load_f16_skx+0xe7>
+ .byte 116,85 // je 4ce7 <_sk_load_f16_skx+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 4ceb <_sk_load_f16_skx+0xe7>
+ .byte 114,72 // jb 4ce7 <_sk_load_f16_skx+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 4cf8 <_sk_load_f16_skx+0xf4>
+ .byte 116,72 // je 4cf4 <_sk_load_f16_skx+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 4cf8 <_sk_load_f16_skx+0xf4>
+ .byte 114,59 // jb 4cf4 <_sk_load_f16_skx+0xf4>
.byte 196,193,123,16,76,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm1
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 4c3b <_sk_load_f16_skx+0x37>
+ .byte 15,132,109,255,255,255 // je 4c37 <_sk_load_f16_skx+0x37>
.byte 196,193,113,22,76,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm1,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 4c3b <_sk_load_f16_skx+0x37>
+ .byte 15,130,92,255,255,255 // jb 4c37 <_sk_load_f16_skx+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 4c3b <_sk_load_f16_skx+0x37>
+ .byte 233,80,255,255,255 // jmpq 4c37 <_sk_load_f16_skx+0x37>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq 4c3b <_sk_load_f16_skx+0x37>
+ .byte 233,67,255,255,255 // jmpq 4c37 <_sk_load_f16_skx+0x37>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
- .byte 233,58,255,255,255 // jmpq 4c3b <_sk_load_f16_skx+0x37>
+ .byte 233,58,255,255,255 // jmpq 4c37 <_sk_load_f16_skx+0x37>
HIDDEN _sk_load_f16_dst_skx
.globl _sk_load_f16_dst_skx
@@ -14188,7 +14185,7 @@ _sk_load_f16_dst_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 4d82 <_sk_load_f16_dst_skx+0x81>
+ .byte 117,101 // jne 4d7e <_sk_load_f16_dst_skx+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,108,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm5
@@ -14214,29 +14211,29 @@ _sk_load_f16_dst_skx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 4de8 <_sk_load_f16_dst_skx+0xe7>
+ .byte 116,85 // je 4de4 <_sk_load_f16_dst_skx+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 4de8 <_sk_load_f16_dst_skx+0xe7>
+ .byte 114,72 // jb 4de4 <_sk_load_f16_dst_skx+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 4df5 <_sk_load_f16_dst_skx+0xf4>
+ .byte 116,72 // je 4df1 <_sk_load_f16_dst_skx+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 4df5 <_sk_load_f16_dst_skx+0xf4>
+ .byte 114,59 // jb 4df1 <_sk_load_f16_dst_skx+0xf4>
.byte 196,193,123,16,108,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm5
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 4d38 <_sk_load_f16_dst_skx+0x37>
+ .byte 15,132,109,255,255,255 // je 4d34 <_sk_load_f16_dst_skx+0x37>
.byte 196,193,81,22,108,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm5,%xmm5
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 4d38 <_sk_load_f16_dst_skx+0x37>
+ .byte 15,130,92,255,255,255 // jb 4d34 <_sk_load_f16_dst_skx+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 4d38 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,80,255,255,255 // jmpq 4d34 <_sk_load_f16_dst_skx+0x37>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq 4d38 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,67,255,255,255 // jmpq 4d34 <_sk_load_f16_dst_skx+0x37>
.byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
- .byte 233,58,255,255,255 // jmpq 4d38 <_sk_load_f16_dst_skx+0x37>
+ .byte 233,58,255,255,255 // jmpq 4d34 <_sk_load_f16_dst_skx+0x37>
HIDDEN _sk_gather_f16_skx
.globl _sk_gather_f16_skx
@@ -14311,7 +14308,7 @@ _sk_store_f16_skx:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 4f43 <_sk_store_f16_skx+0x7b>
+ .byte 117,31 // jne 4f3f <_sk_store_f16_skx+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -14320,22 +14317,22 @@ _sk_store_f16_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 4f3f <_sk_store_f16_skx+0x77>
+ .byte 116,240 // je 4f3b <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 4f3f <_sk_store_f16_skx+0x77>
+ .byte 114,227 // jb 4f3b <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je 4f3f <_sk_store_f16_skx+0x77>
+ .byte 116,218 // je 4f3b <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 4f3f <_sk_store_f16_skx+0x77>
+ .byte 114,205 // jb 4f3b <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je 4f3f <_sk_store_f16_skx+0x77>
+ .byte 116,196 // je 4f3b <_sk_store_f16_skx+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 4f3f <_sk_store_f16_skx+0x77>
+ .byte 114,183 // jb 4f3b <_sk_store_f16_skx+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp 4f3f <_sk_store_f16_skx+0x77>
+ .byte 235,174 // jmp 4f3b <_sk_store_f16_skx+0x77>
HIDDEN _sk_load_u16_be_skx
.globl _sk_load_u16_be_skx
@@ -14350,7 +14347,7 @@ _sk_load_u16_be_skx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne 5084 <_sk_load_u16_be_skx+0xf3>
+ .byte 15,133,204,0,0,0 // jne 5080 <_sk_load_u16_be_skx+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -14369,7 +14366,7 @@ _sk_load_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,35,219,2,0 // vbroadcastss 0x2db23(%rip),%ymm10 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,21,87,213,2,0 // vbroadcastss 0x2d557(%rip),%ymm10 # 3256c <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -14397,29 +14394,29 @@ _sk_load_u16_be_skx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 50ea <_sk_load_u16_be_skx+0x159>
+ .byte 116,85 // je 50e6 <_sk_load_u16_be_skx+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 50ea <_sk_load_u16_be_skx+0x159>
+ .byte 114,72 // jb 50e6 <_sk_load_u16_be_skx+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 50f7 <_sk_load_u16_be_skx+0x166>
+ .byte 116,72 // je 50f3 <_sk_load_u16_be_skx+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 50f7 <_sk_load_u16_be_skx+0x166>
+ .byte 114,59 // jb 50f3 <_sk_load_u16_be_skx+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je 4fd3 <_sk_load_u16_be_skx+0x42>
+ .byte 15,132,6,255,255,255 // je 4fcf <_sk_load_u16_be_skx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb 4fd3 <_sk_load_u16_be_skx+0x42>
+ .byte 15,130,245,254,255,255 // jb 4fcf <_sk_load_u16_be_skx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq 4fd3 <_sk_load_u16_be_skx+0x42>
+ .byte 233,233,254,255,255 // jmpq 4fcf <_sk_load_u16_be_skx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq 4fd3 <_sk_load_u16_be_skx+0x42>
+ .byte 233,220,254,255,255 // jmpq 4fcf <_sk_load_u16_be_skx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq 4fd3 <_sk_load_u16_be_skx+0x42>
+ .byte 233,211,254,255,255 // jmpq 4fcf <_sk_load_u16_be_skx+0x42>
HIDDEN _sk_load_rgb_u16_be_skx
.globl _sk_load_rgb_u16_be_skx
@@ -14436,7 +14433,7 @@ _sk_load_rgb_u16_be_skx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,202,0,0,0 // jne 51f5 <_sk_load_rgb_u16_be_skx+0xf5>
+ .byte 15,133,202,0,0,0 // jne 51f1 <_sk_load_rgb_u16_be_skx+0xf5>
.byte 196,65,121,16,28,64 // vmovupd (%r8,%rax,2),%xmm11
.byte 196,193,121,16,92,64,12 // vmovupd 0xc(%r8,%rax,2),%xmm3
.byte 196,193,121,16,84,64,24 // vmovupd 0x18(%r8,%rax,2),%xmm2
@@ -14460,7 +14457,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,149,217,2,0 // vbroadcastss 0x2d995(%rip),%ymm9 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,13,201,211,2,0 // vbroadcastss 0x2d3c9(%rip),%ymm9 # 3256c <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -14476,69 +14473,69 @@ _sk_load_rgb_u16_be_skx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,181,216,2,0 // vbroadcastss 0x2d8b5(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,233,210,2,0 // vbroadcastss 0x2d2e9(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 522d <_sk_load_rgb_u16_be_skx+0x12d>
+ .byte 117,31 // jne 5229 <_sk_load_rgb_u16_be_skx+0x12d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,48,255,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 5277 <_sk_load_rgb_u16_be_skx+0x177>
+ .byte 114,48 // jb 5273 <_sk_load_rgb_u16_be_skx+0x177>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 5291 <_sk_load_rgb_u16_be_skx+0x191>
+ .byte 117,48 // jne 528d <_sk_load_rgb_u16_be_skx+0x191>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,230,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,204,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 52d2 <_sk_load_rgb_u16_be_skx+0x1d2>
+ .byte 114,39 // jb 52ce <_sk_load_rgb_u16_be_skx+0x1d2>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 52e3 <_sk_load_rgb_u16_be_skx+0x1e3>
+ .byte 117,30 // jne 52df <_sk_load_rgb_u16_be_skx+0x1e3>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,139,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,122,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 5316 <_sk_load_rgb_u16_be_skx+0x216>
+ .byte 114,25 // jb 5312 <_sk_load_rgb_u16_be_skx+0x216>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,71,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq 515d <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 233,62,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
HIDDEN _sk_store_u16_be_skx
.globl _sk_store_u16_be_skx
@@ -14552,7 +14549,7 @@ _sk_store_u16_be_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,126,216,2,0 // vbroadcastss 0x2d87e(%rip),%ymm8 # 32bc4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,178,210,2,0 // vbroadcastss 0x2d2b2(%rip),%ymm8 # 325f4 <_sk_srcover_rgba_8888_sse2_lowp+0x3cc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -14590,7 +14587,7 @@ _sk_store_u16_be_skx:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 542a <_sk_store_u16_be_skx+0x10b>
+ .byte 117,31 // jne 5426 <_sk_store_u16_be_skx+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -14599,22 +14596,22 @@ _sk_store_u16_be_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 5426 <_sk_store_u16_be_skx+0x107>
+ .byte 116,240 // je 5422 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 5426 <_sk_store_u16_be_skx+0x107>
+ .byte 114,227 // jb 5422 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 5426 <_sk_store_u16_be_skx+0x107>
+ .byte 116,218 // je 5422 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 5426 <_sk_store_u16_be_skx+0x107>
+ .byte 114,205 // jb 5422 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 5426 <_sk_store_u16_be_skx+0x107>
+ .byte 116,196 // je 5422 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 5426 <_sk_store_u16_be_skx+0x107>
+ .byte 114,183 // jb 5422 <_sk_store_u16_be_skx+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 5426 <_sk_store_u16_be_skx+0x107>
+ .byte 235,174 // jmp 5422 <_sk_store_u16_be_skx+0x107>
HIDDEN _sk_load_f32_skx
.globl _sk_load_f32_skx
@@ -14624,7 +14621,7 @@ _sk_load_f32_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,63,1,0,0 // ja 55cd <_sk_load_f32_skx+0x155>
+ .byte 15,135,63,1,0,0 // ja 55c9 <_sk_load_f32_skx+0x155>
.byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
.byte 76,99,80,8 // movslq 0x8(%rax),%r10
.byte 76,99,193 // movslq %ecx,%r8
@@ -14632,7 +14629,7 @@ _sk_load_f32_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 55e0 <_sk_load_f32_skx+0x168>
+ .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 55dc <_sk_load_f32_skx+0x168>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
@@ -14691,7 +14688,7 @@ _sk_load_f32_skx:
.byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,196 // jmp 55a1 <_sk_load_f32_skx+0x129>
+ .byte 235,196 // jmp 559d <_sk_load_f32_skx+0x129>
.byte 15,31,0 // nopl (%rax)
.byte 37,255,255,255,181 // and $0xb5ffffff,%eax
.byte 255 // (bad)
@@ -14720,7 +14717,7 @@ _sk_load_f32_dst_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,63,1,0,0 // ja 5755 <_sk_load_f32_dst_skx+0x155>
+ .byte 15,135,63,1,0,0 // ja 5751 <_sk_load_f32_dst_skx+0x155>
.byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
.byte 76,99,80,8 // movslq 0x8(%rax),%r10
.byte 76,99,193 // movslq %ecx,%r8
@@ -14728,7 +14725,7 @@ _sk_load_f32_dst_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5768 <_sk_load_f32_dst_skx+0x168>
+ .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5764 <_sk_load_f32_dst_skx+0x168>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
@@ -14787,7 +14784,7 @@ _sk_load_f32_dst_skx:
.byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
.byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,196 // jmp 5729 <_sk_load_f32_dst_skx+0x129>
+ .byte 235,196 // jmp 5725 <_sk_load_f32_dst_skx+0x129>
.byte 15,31,0 // nopl (%rax)
.byte 37,255,255,255,181 // and $0xb5ffffff,%eax
.byte 255 // (bad)
@@ -14829,7 +14826,7 @@ _sk_store_f32_skx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 5807 <_sk_store_f32_skx+0x7f>
+ .byte 117,55 // jne 5803 <_sk_store_f32_skx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -14842,22 +14839,22 @@ _sk_store_f32_skx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 5803 <_sk_store_f32_skx+0x7b>
+ .byte 116,240 // je 57ff <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 5803 <_sk_store_f32_skx+0x7b>
+ .byte 114,227 // jb 57ff <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 5803 <_sk_store_f32_skx+0x7b>
+ .byte 116,218 // je 57ff <_sk_store_f32_skx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 5803 <_sk_store_f32_skx+0x7b>
+ .byte 114,205 // jb 57ff <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 5803 <_sk_store_f32_skx+0x7b>
+ .byte 116,195 // je 57ff <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 5803 <_sk_store_f32_skx+0x7b>
+ .byte 114,181 // jb 57ff <_sk_store_f32_skx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 5803 <_sk_store_f32_skx+0x7b>
+ .byte 235,171 // jmp 57ff <_sk_store_f32_skx+0x7b>
HIDDEN _sk_repeat_x_skx
.globl _sk_repeat_x_skx
@@ -14894,7 +14891,7 @@ _sk_mirror_x_skx:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,235,209,2,0 // vmulss 0x2d1eb(%rip),%xmm9,%xmm0 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 197,178,89,5,31,204,2,0 // vmulss 0x2cc1f(%rip),%xmm9,%xmm0 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -14917,7 +14914,7 @@ _sk_mirror_y_skx:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,154,209,2,0 // vmulss 0x2d19a(%rip),%xmm9,%xmm1 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 197,178,89,13,206,203,2,0 // vmulss 0x2cbce(%rip),%xmm9,%xmm1 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -14935,7 +14932,7 @@ FUNCTION(_sk_clamp_x_1_skx)
_sk_clamp_x_1_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,97,209,2,0 // vminps 0x2d161(%rip){1to8},%ymm0,%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,124,56,93,5,149,203,2,0 // vminps 0x2cb95(%rip){1to8},%ymm0,%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14947,7 +14944,7 @@ _sk_repeat_x_1_skx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,63,209,2,0 // vminps 0x2d13f(%rip){1to8},%ymm0,%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,124,56,93,5,115,203,2,0 // vminps 0x2cb73(%rip){1to8},%ymm0,%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14955,9 +14952,9 @@ HIDDEN _sk_mirror_x_1_skx
.globl _sk_mirror_x_1_skx
FUNCTION(_sk_mirror_x_1_skx)
_sk_mirror_x_1_skx:
- .byte 196,98,125,24,5,74,209,2,0 // vbroadcastss 0x2d14a(%rip),%ymm8 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,5,126,203,2,0 // vbroadcastss 0x2cb7e(%rip),%ymm8 # 324f0 <_sk_srcover_rgba_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 98,113,124,56,89,13,31,209,2,0 // vmulps 0x2d11f(%rip){1to8},%ymm0,%ymm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 98,113,124,56,89,13,83,203,2,0 // vmulps 0x2cb53(%rip){1to8},%ymm0,%ymm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
.byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
@@ -14966,7 +14963,7 @@ _sk_mirror_x_1_skx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,243,208,2,0 // vminps 0x2d0f3(%rip){1to8},%ymm0,%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,124,56,93,5,39,203,2,0 // vminps 0x2cb27(%rip){1to8},%ymm0,%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14974,9 +14971,9 @@ HIDDEN _sk_luminance_to_alpha_skx
.globl _sk_luminance_to_alpha_skx
FUNCTION(_sk_luminance_to_alpha_skx)
_sk_luminance_to_alpha_skx:
- .byte 98,241,116,56,89,29,5,210,2,0 // vmulps 0x2d205(%rip){1to8},%ymm1,%ymm3 # 32bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
- .byte 98,242,125,56,184,29,255,209,2,0 // vfmadd231ps 0x2d1ff(%rip){1to8},%ymm0,%ymm3 # 32bcc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
- .byte 98,242,109,56,184,29,249,209,2,0 // vfmadd231ps 0x2d1f9(%rip){1to8},%ymm2,%ymm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 98,241,116,56,89,29,57,204,2,0 // vmulps 0x2cc39(%rip){1to8},%ymm1,%ymm3 # 325f8 <_sk_srcover_rgba_8888_sse2_lowp+0x3d0>
+ .byte 98,242,125,56,184,29,51,204,2,0 // vfmadd231ps 0x2cc33(%rip){1to8},%ymm0,%ymm3 # 325fc <_sk_srcover_rgba_8888_sse2_lowp+0x3d4>
+ .byte 98,242,109,56,184,29,45,204,2,0 // vfmadd231ps 0x2cc2d(%rip){1to8},%ymm2,%ymm3 # 32600 <_sk_srcover_rgba_8888_sse2_lowp+0x3d8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
@@ -15158,7 +15155,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,209 // vcvttps2dq %ymm1,%ymm10
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja 5cd5 <_sk_evenly_spaced_gradient_skx+0x70>
+ .byte 119,73 // ja 5cd1 <_sk_evenly_spaced_gradient_skx+0x70>
.byte 196,66,45,22,0 // vpermps (%r8),%ymm10,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,45,22,8 // vpermps (%r8),%ymm10,%ymm9
@@ -15174,7 +15171,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 196,194,45,22,24 // vpermps (%r8),%ymm10,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,45,22,40 // vpermps (%rax),%ymm10,%ymm13
- .byte 233,147,0,0,0 // jmpq 5d68 <_sk_evenly_spaced_gradient_skx+0x103>
+ .byte 233,147,0,0,0 // jmpq 5d64 <_sk_evenly_spaced_gradient_skx+0x103>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm8
@@ -15218,11 +15215,11 @@ HIDDEN _sk_gauss_a_to_rgba_skx
.globl _sk_gauss_a_to_rgba_skx
FUNCTION(_sk_gauss_a_to_rgba_skx)
_sk_gauss_a_to_rgba_skx:
- .byte 196,226,125,24,5,71,206,2,0 // vbroadcastss 0x2ce47(%rip),%ymm0 # 32bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
- .byte 98,242,101,56,168,5,65,206,2,0 // vfmadd213ps 0x2ce41(%rip){1to8},%ymm3,%ymm0 # 32bd8 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
- .byte 98,242,101,56,168,5,59,206,2,0 // vfmadd213ps 0x2ce3b(%rip){1to8},%ymm3,%ymm0 # 32bdc <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
- .byte 98,242,101,56,168,5,53,206,2,0 // vfmadd213ps 0x2ce35(%rip){1to8},%ymm3,%ymm0 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
- .byte 98,242,101,56,168,5,47,206,2,0 // vfmadd213ps 0x2ce2f(%rip){1to8},%ymm3,%ymm0 # 32be4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,226,125,24,5,123,200,2,0 // vbroadcastss 0x2c87b(%rip),%ymm0 # 32604 <_sk_srcover_rgba_8888_sse2_lowp+0x3dc>
+ .byte 98,242,101,56,168,5,117,200,2,0 // vfmadd213ps 0x2c875(%rip){1to8},%ymm3,%ymm0 # 32608 <_sk_srcover_rgba_8888_sse2_lowp+0x3e0>
+ .byte 98,242,101,56,168,5,111,200,2,0 // vfmadd213ps 0x2c86f(%rip){1to8},%ymm3,%ymm0 # 3260c <_sk_srcover_rgba_8888_sse2_lowp+0x3e4>
+ .byte 98,242,101,56,168,5,105,200,2,0 // vfmadd213ps 0x2c869(%rip){1to8},%ymm3,%ymm0 # 32610 <_sk_srcover_rgba_8888_sse2_lowp+0x3e8>
+ .byte 98,242,101,56,168,5,99,200,2,0 // vfmadd213ps 0x2c863(%rip){1to8},%ymm3,%ymm0 # 32614 <_sk_srcover_rgba_8888_sse2_lowp+0x3ec>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
@@ -15236,11 +15233,11 @@ _sk_gradient_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,229,0,0,0 // jbe 5eb9 <_sk_gradient_skx+0xf4>
+ .byte 15,134,229,0,0,0 // jbe 5eb5 <_sk_gradient_skx+0xf4>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,193,204,2,0 // vbroadcastss 0x2ccc1(%rip),%ymm2 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,226,125,24,21,245,198,2,0 // vbroadcastss 0x2c6f5(%rip),%ymm2 # 324dc <_sk_srcover_rgba_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0
@@ -15249,10 +15246,10 @@ _sk_gradient_skx:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,131,194,1 // add $0x1,%r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,218 // jne 5df0 <_sk_gradient_skx+0x2b>
+ .byte 117,218 // jne 5dec <_sk_gradient_skx+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe 5ec2 <_sk_gradient_skx+0xfd>
+ .byte 15,134,158,0,0,0 // jbe 5ebe <_sk_gradient_skx+0xfd>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8
@@ -15284,7 +15281,7 @@ _sk_gradient_skx:
.byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13
- .byte 235,77 // jmp 5f06 <_sk_gradient_skx+0x141>
+ .byte 235,77 // jmp 5f02 <_sk_gradient_skx+0x141>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -15340,24 +15337,24 @@ _sk_xy_to_unit_angle_skx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,87,204,2,0 // vbroadcastss 0x2cc57(%rip),%ymm13 # 32be8 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
- .byte 98,114,29,56,168,45,81,204,2,0 // vfmadd213ps 0x2cc51(%rip){1to8},%ymm12,%ymm13 # 32bec <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
- .byte 98,114,29,56,168,45,75,204,2,0 // vfmadd213ps 0x2cc4b(%rip){1to8},%ymm12,%ymm13 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
- .byte 98,114,29,56,168,45,69,204,2,0 // vfmadd213ps 0x2cc45(%rip){1to8},%ymm12,%ymm13 # 32bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 196,98,125,24,45,139,198,2,0 // vbroadcastss 0x2c68b(%rip),%ymm13 # 32618 <_sk_srcover_rgba_8888_sse2_lowp+0x3f0>
+ .byte 98,114,29,56,168,45,133,198,2,0 // vfmadd213ps 0x2c685(%rip){1to8},%ymm12,%ymm13 # 3261c <_sk_srcover_rgba_8888_sse2_lowp+0x3f4>
+ .byte 98,114,29,56,168,45,127,198,2,0 // vfmadd213ps 0x2c67f(%rip){1to8},%ymm12,%ymm13 # 32620 <_sk_srcover_rgba_8888_sse2_lowp+0x3f8>
+ .byte 98,114,29,56,168,45,121,198,2,0 // vfmadd213ps 0x2c679(%rip){1to8},%ymm12,%ymm13 # 32624 <_sk_srcover_rgba_8888_sse2_lowp+0x3fc>
.byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
.byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,46,204,2,0 // vbroadcastss 0x2cc2e(%rip),%ymm10 # 32bf8 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 196,98,125,24,21,98,198,2,0 // vbroadcastss 0x2c662(%rip),%ymm10 # 32628 <_sk_srcover_rgba_8888_sse2_lowp+0x400>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,98,125,24,21,185,202,2,0 // vbroadcastss 0x2cab9(%rip),%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,21,237,196,2,0 // vbroadcastss 0x2c4ed(%rip),%ymm10 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,156,202,2,0 // vbroadcastss 0x2ca9c(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,21,208,196,2,0 // vbroadcastss 0x2c4d0(%rip),%ymm10 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0
@@ -15386,20 +15383,20 @@ _sk_xy_to_2pt_conical_quadratic_max_skx:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,152,203,2,0 // vmulps 0x2cb98(%rip){1to8},%ymm10,%ymm10 # 32bfc <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 98,113,44,56,89,21,204,197,2,0 // vmulps 0x2c5cc(%rip){1to8},%ymm10,%ymm10 # 3262c <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,123,203,2,0 // vmulps 0x2cb7b(%rip){1to8},%ymm8,%ymm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 98,113,60,56,89,5,175,197,2,0 // vmulps 0x2c5af(%rip){1to8},%ymm8,%ymm8 # 32630 <_sk_srcover_rgba_8888_sse2_lowp+0x408>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 98,113,44,56,87,13,98,203,2,0 // vxorps 0x2cb62(%rip){1to8},%ymm10,%ymm9 # 32c04 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 98,113,44,56,87,13,150,197,2,0 // vxorps 0x2c596(%rip){1to8},%ymm10,%ymm9 # 32634 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,113,60,56,89,5,243,201,2,0 // vmulps 0x2c9f3(%rip){1to8},%ymm8,%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 98,113,60,56,89,5,39,196,2,0 // vmulps 0x2c427(%rip){1to8},%ymm8,%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -15417,20 +15414,20 @@ _sk_xy_to_2pt_conical_quadratic_min_skx:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,16,203,2,0 // vmulps 0x2cb10(%rip){1to8},%ymm10,%ymm10 # 32bfc <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 98,113,44,56,89,21,68,197,2,0 // vmulps 0x2c544(%rip){1to8},%ymm10,%ymm10 # 3262c <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,243,202,2,0 // vmulps 0x2caf3(%rip){1to8},%ymm8,%ymm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 98,113,60,56,89,5,39,197,2,0 // vmulps 0x2c527(%rip){1to8},%ymm8,%ymm8 # 32630 <_sk_srcover_rgba_8888_sse2_lowp+0x408>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 98,113,44,56,87,13,218,202,2,0 // vxorps 0x2cada(%rip){1to8},%ymm10,%ymm9 # 32c04 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 98,113,44,56,87,13,14,197,2,0 // vxorps 0x2c50e(%rip){1to8},%ymm10,%ymm9 # 32634 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,113,60,56,89,5,107,201,2,0 // vmulps 0x2c96b(%rip){1to8},%ymm8,%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 98,113,60,56,89,5,159,195,2,0 // vmulps 0x2c39f(%rip){1to8},%ymm8,%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -15447,13 +15444,13 @@ _sk_xy_to_2pt_conical_linear_skx:
.byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 98,113,52,56,89,13,142,202,2,0 // vmulps 0x2ca8e(%rip){1to8},%ymm9,%ymm9 # 32bfc <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 98,113,52,56,89,13,194,196,2,0 // vmulps 0x2c4c2(%rip){1to8},%ymm9,%ymm9 # 3262c <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 98,241,124,56,87,5,117,202,2,0 // vxorps 0x2ca75(%rip){1to8},%ymm0,%ymm0 # 32c04 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 98,241,124,56,87,5,169,196,2,0 // vxorps 0x2c4a9(%rip){1to8},%ymm0,%ymm0 # 32634 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15495,7 +15492,7 @@ HIDDEN _sk_save_xy_skx
FUNCTION(_sk_save_xy_skx)
_sk_save_xy_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,162,200,2,0 // vbroadcastss 0x2c8a2(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,214,194,2,0 // vbroadcastss 0x2c2d6(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -15530,8 +15527,8 @@ FUNCTION(_sk_bilinear_nx_skx)
_sk_bilinear_nx_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,139,201,2,0 // vaddps 0x2c98b(%rip){1to8},%ymm0,%ymm0 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
- .byte 196,98,125,24,5,34,200,2,0 // vbroadcastss 0x2c822(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,124,56,88,5,191,195,2,0 // vaddps 0x2c3bf(%rip){1to8},%ymm0,%ymm0 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,86,194,2,0 // vbroadcastss 0x2c256(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15544,7 +15541,7 @@ _sk_bilinear_px_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,242,199,2,0 // vaddps 0x2c7f2(%rip){1to8},%ymm0,%ymm0 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 98,241,124,56,88,5,38,194,2,0 // vaddps 0x2c226(%rip){1to8},%ymm0,%ymm0 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15555,8 +15552,8 @@ FUNCTION(_sk_bilinear_ny_skx)
_sk_bilinear_ny_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,57,201,2,0 // vaddps 0x2c939(%rip){1to8},%ymm1,%ymm1 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
- .byte 196,98,125,24,5,208,199,2,0 // vbroadcastss 0x2c7d0(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,116,56,88,13,109,195,2,0 // vaddps 0x2c36d(%rip){1to8},%ymm1,%ymm1 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,4,194,2,0 // vbroadcastss 0x2c204(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15569,7 +15566,7 @@ _sk_bilinear_py_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,159,199,2,0 // vaddps 0x2c79f(%rip){1to8},%ymm1,%ymm1 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 98,241,116,56,88,13,211,193,2,0 // vaddps 0x2c1d3(%rip){1to8},%ymm1,%ymm1 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15580,12 +15577,12 @@ FUNCTION(_sk_bicubic_n3x_skx)
_sk_bicubic_n3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,235,200,2,0 // vaddps 0x2c8eb(%rip){1to8},%ymm0,%ymm0 # 32c0c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
- .byte 196,98,125,24,5,126,199,2,0 // vbroadcastss 0x2c77e(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,124,56,88,5,31,195,2,0 // vaddps 0x2c31f(%rip){1to8},%ymm0,%ymm0 # 3263c <_sk_srcover_rgba_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,5,178,193,2,0 // vbroadcastss 0x2c1b2(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,208,200,2,0 // vbroadcastss 0x2c8d0(%rip),%ymm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
- .byte 98,114,61,56,168,21,210,199,2,0 // vfmadd213ps 0x2c7d2(%rip){1to8},%ymm8,%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,21,4,195,2,0 // vbroadcastss 0x2c304(%rip),%ymm10 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
+ .byte 98,114,61,56,168,21,6,194,2,0 // vfmadd213ps 0x2c206(%rip){1to8},%ymm8,%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15597,13 +15594,13 @@ FUNCTION(_sk_bicubic_n1x_skx)
_sk_bicubic_n1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,157,200,2,0 // vaddps 0x2c89d(%rip){1to8},%ymm0,%ymm0 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
- .byte 196,98,125,24,5,52,199,2,0 // vbroadcastss 0x2c734(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,124,56,88,5,209,194,2,0 // vaddps 0x2c2d1(%rip){1to8},%ymm0,%ymm0 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,104,193,2,0 // vbroadcastss 0x2c168(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,143,200,2,0 // vbroadcastss 0x2c88f(%rip),%ymm9 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
- .byte 98,114,61,56,168,13,137,200,2,0 // vfmadd213ps 0x2c889(%rip){1to8},%ymm8,%ymm9 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 98,114,61,56,168,13,11,199,2,0 // vfmadd213ps 0x2c70b(%rip){1to8},%ymm8,%ymm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
- .byte 98,114,61,56,168,13,121,200,2,0 // vfmadd213ps 0x2c879(%rip){1to8},%ymm8,%ymm9 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,13,195,194,2,0 // vbroadcastss 0x2c2c3(%rip),%ymm9 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
+ .byte 98,114,61,56,168,13,189,194,2,0 // vfmadd213ps 0x2c2bd(%rip){1to8},%ymm8,%ymm9 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
+ .byte 98,114,61,56,168,13,63,193,2,0 // vfmadd213ps 0x2c13f(%rip){1to8},%ymm8,%ymm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,173,194,2,0 // vfmadd213ps 0x2c2ad(%rip){1to8},%ymm8,%ymm9 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 197,124,17,136,0,1,0,0 // vmovups %ymm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15613,13 +15610,13 @@ HIDDEN _sk_bicubic_p1x_skx
FUNCTION(_sk_bicubic_p1x_skx)
_sk_bicubic_p1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,234,198,2,0 // vbroadcastss 0x2c6ea(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,30,193,2,0 // vbroadcastss 0x2c11e(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,69,200,2,0 // vbroadcastss 0x2c845(%rip),%ymm10 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
- .byte 98,114,53,56,168,21,63,200,2,0 // vfmadd213ps 0x2c83f(%rip){1to8},%ymm9,%ymm10 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,121,194,2,0 // vbroadcastss 0x2c279(%rip),%ymm10 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
+ .byte 98,114,53,56,168,21,115,194,2,0 // vfmadd213ps 0x2c273(%rip){1to8},%ymm9,%ymm10 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,52,200,2,0 // vfmadd213ps 0x2c834(%rip){1to8},%ymm9,%ymm10 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 98,114,53,56,168,21,104,194,2,0 // vfmadd213ps 0x2c268(%rip){1to8},%ymm9,%ymm10 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15631,10 +15628,10 @@ _sk_bicubic_p3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,12,200,2,0 // vaddps 0x2c80c(%rip){1to8},%ymm0,%ymm0 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 98,241,124,56,88,5,64,194,2,0 // vaddps 0x2c240(%rip){1to8},%ymm0,%ymm0 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,246,199,2,0 // vbroadcastss 0x2c7f6(%rip),%ymm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
- .byte 98,114,61,56,168,21,248,198,2,0 // vfmadd213ps 0x2c6f8(%rip){1to8},%ymm8,%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,21,42,194,2,0 // vbroadcastss 0x2c22a(%rip),%ymm10 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
+ .byte 98,114,61,56,168,21,44,193,2,0 // vfmadd213ps 0x2c12c(%rip){1to8},%ymm8,%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15646,12 +15643,12 @@ FUNCTION(_sk_bicubic_n3y_skx)
_sk_bicubic_n3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,198,199,2,0 // vaddps 0x2c7c6(%rip){1to8},%ymm1,%ymm1 # 32c0c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
- .byte 196,98,125,24,5,89,198,2,0 // vbroadcastss 0x2c659(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,116,56,88,13,250,193,2,0 // vaddps 0x2c1fa(%rip){1to8},%ymm1,%ymm1 # 3263c <_sk_srcover_rgba_8888_sse2_lowp+0x414>
+ .byte 196,98,125,24,5,141,192,2,0 // vbroadcastss 0x2c08d(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,171,199,2,0 // vbroadcastss 0x2c7ab(%rip),%ymm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
- .byte 98,114,61,56,168,21,173,198,2,0 // vfmadd213ps 0x2c6ad(%rip){1to8},%ymm8,%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,21,223,193,2,0 // vbroadcastss 0x2c1df(%rip),%ymm10 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
+ .byte 98,114,61,56,168,21,225,192,2,0 // vfmadd213ps 0x2c0e1(%rip){1to8},%ymm8,%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15663,13 +15660,13 @@ FUNCTION(_sk_bicubic_n1y_skx)
_sk_bicubic_n1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,119,199,2,0 // vaddps 0x2c777(%rip){1to8},%ymm1,%ymm1 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
- .byte 196,98,125,24,5,14,198,2,0 // vbroadcastss 0x2c60e(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 98,241,116,56,88,13,171,193,2,0 // vaddps 0x2c1ab(%rip){1to8},%ymm1,%ymm1 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
+ .byte 196,98,125,24,5,66,192,2,0 // vbroadcastss 0x2c042(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,105,199,2,0 // vbroadcastss 0x2c769(%rip),%ymm9 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
- .byte 98,114,61,56,168,13,99,199,2,0 // vfmadd213ps 0x2c763(%rip){1to8},%ymm8,%ymm9 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 98,114,61,56,168,13,229,197,2,0 // vfmadd213ps 0x2c5e5(%rip){1to8},%ymm8,%ymm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
- .byte 98,114,61,56,168,13,83,199,2,0 // vfmadd213ps 0x2c753(%rip){1to8},%ymm8,%ymm9 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,13,157,193,2,0 // vbroadcastss 0x2c19d(%rip),%ymm9 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
+ .byte 98,114,61,56,168,13,151,193,2,0 // vfmadd213ps 0x2c197(%rip){1to8},%ymm8,%ymm9 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
+ .byte 98,114,61,56,168,13,25,192,2,0 // vfmadd213ps 0x2c019(%rip){1to8},%ymm8,%ymm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
+ .byte 98,114,61,56,168,13,135,193,2,0 // vfmadd213ps 0x2c187(%rip){1to8},%ymm8,%ymm9 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 197,124,17,136,64,1,0,0 // vmovups %ymm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15679,13 +15676,13 @@ HIDDEN _sk_bicubic_p1y_skx
FUNCTION(_sk_bicubic_p1y_skx)
_sk_bicubic_p1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,196,197,2,0 // vbroadcastss 0x2c5c4(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,248,191,2,0 // vbroadcastss 0x2bff8(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,30,199,2,0 // vbroadcastss 0x2c71e(%rip),%ymm10 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
- .byte 98,114,53,56,168,21,24,199,2,0 // vfmadd213ps 0x2c718(%rip){1to8},%ymm9,%ymm10 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,82,193,2,0 // vbroadcastss 0x2c152(%rip),%ymm10 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
+ .byte 98,114,53,56,168,21,76,193,2,0 // vfmadd213ps 0x2c14c(%rip){1to8},%ymm9,%ymm10 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,13,199,2,0 // vfmadd213ps 0x2c70d(%rip){1to8},%ymm9,%ymm10 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 98,114,53,56,168,21,65,193,2,0 // vfmadd213ps 0x2c141(%rip){1to8},%ymm9,%ymm10 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15697,10 +15694,10 @@ _sk_bicubic_p3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,228,198,2,0 // vaddps 0x2c6e4(%rip){1to8},%ymm1,%ymm1 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 98,241,116,56,88,13,24,193,2,0 // vaddps 0x2c118(%rip){1to8},%ymm1,%ymm1 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,206,198,2,0 // vbroadcastss 0x2c6ce(%rip),%ymm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
- .byte 98,114,61,56,168,21,208,197,2,0 // vfmadd213ps 0x2c5d0(%rip){1to8},%ymm8,%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,21,2,193,2,0 // vbroadcastss 0x2c102(%rip),%ymm10 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
+ .byte 98,114,61,56,168,21,4,192,2,0 // vfmadd213ps 0x2c004(%rip){1to8},%ymm8,%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15826,7 +15823,7 @@ _sk_clut_3D_skx:
.byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20
.byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,98,125,40,88,29,216,196,2,0 // vpbroadcastd 0x2c4d8(%rip),%ymm27 # 32c24 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,98,125,40,88,29,12,191,2,0 // vpbroadcastd 0x2bf0c(%rip),%ymm27 # 32654 <_sk_srcover_rgba_8888_sse2_lowp+0x42c>
.byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
.byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -15839,9 +15836,9 @@ _sk_clut_3D_skx:
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
.byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1
.byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29
- .byte 196,98,125,24,21,142,196,2,0 // vbroadcastss 0x2c48e(%rip),%ymm10 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,194,190,2,0 // vbroadcastss 0x2bec2(%rip),%ymm10 # 32650 <_sk_srcover_rgba_8888_sse2_lowp+0x428>
.byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11
- .byte 98,226,125,40,88,5,18,195,2,0 // vpbroadcastd 0x2c312(%rip),%ymm16 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,226,125,40,88,5,70,189,2,0 // vpbroadcastd 0x2bd46(%rip),%ymm16 # 324e4 <_sk_srcover_rgba_8888_sse2_lowp+0x2bc>
.byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -16081,7 +16078,7 @@ _sk_clut_4D_skx:
.byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20
.byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,226,125,40,88,5,106,191,2,0 // vpbroadcastd 0x2bf6a(%rip),%ymm16 # 32c24 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,226,125,40,88,5,158,185,2,0 // vpbroadcastd 0x2b99e(%rip),%ymm16 # 32654 <_sk_srcover_rgba_8888_sse2_lowp+0x42c>
.byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
.byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
@@ -16093,9 +16090,9 @@ _sk_clut_4D_skx:
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
.byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13
.byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp)
- .byte 196,226,125,24,5,28,191,2,0 // vbroadcastss 0x2bf1c(%rip),%ymm0 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,226,125,24,5,80,185,2,0 // vbroadcastss 0x2b950(%rip),%ymm0 # 32650 <_sk_srcover_rgba_8888_sse2_lowp+0x428>
.byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12
- .byte 98,226,125,40,88,13,160,189,2,0 // vpbroadcastd 0x2bda0(%rip),%ymm17 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,226,125,40,88,13,212,183,2,0 // vpbroadcastd 0x2b7d4(%rip),%ymm17 # 324e4 <_sk_srcover_rgba_8888_sse2_lowp+0x2bc>
.byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
@@ -16500,7 +16497,7 @@ _sk_clut_4D_skx:
.byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2
.byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,62,180,2,0 // vbroadcastss 0x2b43e(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,114,174,2,0 // vbroadcastss 0x2ae72(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
.byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
.byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
@@ -16530,13 +16527,13 @@ _sk_start_pipeline_hsw:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 7756 <_sk_start_pipeline_hsw+0xca>
+ .byte 15,131,151,0,0,0 // jae 7752 <_sk_start_pipeline_hsw+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 7718 <_sk_start_pipeline_hsw+0x8c>
+ .byte 119,67 // ja 7714 <_sk_start_pipeline_hsw+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -16555,10 +16552,10 @@ _sk_start_pipeline_hsw:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 76d9 <_sk_start_pipeline_hsw+0x4d>
+ .byte 118,193 // jbe 76d5 <_sk_start_pipeline_hsw+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 7749 <_sk_start_pipeline_hsw+0xbd>
+ .byte 116,41 // je 7745 <_sk_start_pipeline_hsw+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16572,7 +16569,7 @@ _sk_start_pipeline_hsw:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 76cb <_sk_start_pipeline_hsw+0x3f>
+ .byte 15,133,117,255,255,255 // jne 76c7 <_sk_start_pipeline_hsw+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -16593,17 +16590,18 @@ HIDDEN _sk_seed_shader_hsw
.globl _sk_seed_shader_hsw
FUNCTION(_sk_seed_shader_hsw)
_sk_seed_shader_hsw:
+ .byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,249,110,194 // vmovd %edx,%xmm0
.byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,162,173,2,0 // vaddps 0x2ada2(%rip),%ymm0,%ymm0 # 32520 <_sk_srcover_rgba_8888_sse2_lowp+0x2f4>
+ .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,16,179,2,0 // vbroadcastss 0x2b310(%rip),%ymm2 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,226,125,24,21,70,173,2,0 // vbroadcastss 0x2ad46(%rip),%ymm2 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,5,179,2,0 // vbroadcastss 0x2b305(%rip),%ymm2 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,21,59,173,2,0 // vbroadcastss 0x2ad3b(%rip),%ymm2 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -16618,17 +16616,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,116,173,2,0 // vpaddd 0x2ad74(%rip),%ymm8,%ymm8 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x314>
+ .byte 197,61,254,5,218,174,2,0 // vpaddd 0x2aeda(%rip),%ymm8,%ymm8 # 326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x478>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,201,178,2,0 // vpbroadcastd 0x2b2c9(%rip),%ymm10 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,88,21,255,172,2,0 // vpbroadcastd 0x2acff(%rip),%ymm10 # 324dc <_sk_srcover_rgba_8888_sse2_lowp+0x2b4>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,174,178,2,0 // vpbroadcastd 0x2b2ae(%rip),%ymm12 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
- .byte 196,98,125,88,45,169,178,2,0 // vpbroadcastd 0x2b2a9(%rip),%ymm13 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,88,37,228,172,2,0 // vpbroadcastd 0x2ace4(%rip),%ymm12 # 324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x2b8>
+ .byte 196,98,125,88,45,223,172,2,0 // vpbroadcastd 0x2acdf(%rip),%ymm13 # 324e4 <_sk_srcover_rgba_8888_sse2_lowp+0x2bc>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -16643,8 +16641,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,91,178,2,0 // vbroadcastss 0x2b25b(%rip),%ymm9 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
- .byte 196,98,125,24,21,86,178,2,0 // vbroadcastss 0x2b256(%rip),%ymm10 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,13,145,172,2,0 // vbroadcastss 0x2ac91(%rip),%ymm9 # 324e8 <_sk_srcover_rgba_8888_sse2_lowp+0x2c0>
+ .byte 196,98,125,24,21,140,172,2,0 // vbroadcastss 0x2ac8c(%rip),%ymm10 # 324ec <_sk_srcover_rgba_8888_sse2_lowp+0x2c4>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -16678,7 +16676,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,222,177,2,0 // vbroadcastss 0x2b1de(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,20,172,2,0 // vbroadcastss 0x2ac14(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16689,7 +16687,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,197,177,2,0 // vbroadcastss 0x2b1c5(%rip),%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,5,251,171,2,0 // vbroadcastss 0x2abfb(%rip),%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -16735,7 +16733,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,100,177,2,0 // vbroadcastss 0x2b164(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,154,171,2,0 // vbroadcastss 0x2ab9a(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -16751,7 +16749,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,51,177,2,0 // vbroadcastss 0x2b133(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,105,171,2,0 // vbroadcastss 0x2ab69(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -16790,7 +16788,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,214,176,2,0 // vbroadcastss 0x2b0d6(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,12,171,2,0 // vbroadcastss 0x2ab0c(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -16803,7 +16801,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,181,176,2,0 // vbroadcastss 0x2b0b5(%rip),%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,5,235,170,2,0 // vbroadcastss 0x2aaeb(%rip),%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -16816,7 +16814,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,148,176,2,0 // vbroadcastss 0x2b094(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,202,170,2,0 // vbroadcastss 0x2aaca(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -16829,7 +16827,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,111,176,2,0 // vbroadcastss 0x2b06f(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,165,170,2,0 // vbroadcastss 0x2aaa5(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -16853,7 +16851,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,54,176,2,0 // vbroadcastss 0x2b036(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,108,170,2,0 // vbroadcastss 0x2aa6c(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16876,7 +16874,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,229,175,2,0 // vbroadcastss 0x2afe5(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,27,170,2,0 // vbroadcastss 0x2aa1b(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -16906,7 +16904,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,144,175,2,0 // vbroadcastss 0x2af90(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,198,169,2,0 // vbroadcastss 0x2a9c6(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16940,7 +16938,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,20,175,2,0 // vbroadcastss 0x2af14(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,74,169,2,0 // vbroadcastss 0x2a94a(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -16965,7 +16963,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,191,174,2,0 // vbroadcastss 0x2aebf(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,245,168,2,0 // vbroadcastss 0x2a8f5(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -16993,7 +16991,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,94,174,2,0 // vbroadcastss 0x2ae5e(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,148,168,2,0 // vbroadcastss 0x2a894(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17015,7 +17013,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,24,174,2,0 // vbroadcastss 0x2ae18(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,78,168,2,0 // vbroadcastss 0x2a84e(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17025,7 +17023,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,2,174,2,0 // vbroadcastss 0x2ae02(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,56,168,2,0 // vbroadcastss 0x2a838(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -17083,7 +17081,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,18,173,2,0 // vbroadcastss 0x2ad12(%rip),%ymm9 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,13,72,167,2,0 // vbroadcastss 0x2a748(%rip),%ymm9 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -17136,7 +17134,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,44,172,2,0 // vbroadcastss 0x2ac2c(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,98,166,2,0 // vbroadcastss 0x2a662(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17187,7 +17185,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,96,171,2,0 // vbroadcastss 0x2ab60(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,150,165,2,0 // vbroadcastss 0x2a596(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17248,10 +17246,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,123,170,2,0 // vbroadcastss 0x2aa7b(%rip),%ymm11 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,29,177,164,2,0 // vbroadcastss 0x2a4b1(%rip),%ymm11 # 324f0 <_sk_srcover_rgba_8888_sse2_lowp+0x2c8>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,108,170,2,0 // vbroadcastss 0x2aa6c(%rip),%ymm12 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,125,24,37,162,164,2,0 // vbroadcastss 0x2a4a2(%rip),%ymm12 # 324f4 <_sk_srcover_rgba_8888_sse2_lowp+0x2cc>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -17261,7 +17259,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,27,170,2,0 // vbroadcastss 0x2aa1b(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,81,164,2,0 // vbroadcastss 0x2a451(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -17374,11 +17372,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,51,168,2,0 // vbroadcastss 0x2a833(%rip),%ymm14 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,61,46,168,2,0 // vbroadcastss 0x2a82e(%rip),%ymm15 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,53,105,162,2,0 // vbroadcastss 0x2a269(%rip),%ymm14 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,100,162,2,0 // vbroadcastss 0x2a264(%rip),%ymm15 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,31,168,2,0 // vbroadcastss 0x2a81f(%rip),%ymm0 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,226,125,24,5,85,162,2,0 // vbroadcastss 0x2a255(%rip),%ymm0 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -17433,7 +17431,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,224,166,2,0 // vbroadcastss 0x2a6e0(%rip),%ymm1 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,13,22,161,2,0 // vbroadcastss 0x2a116(%rip),%ymm1 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -17487,11 +17485,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,19,166,2,0 // vbroadcastss 0x2a613(%rip),%ymm14 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,61,14,166,2,0 // vbroadcastss 0x2a60e(%rip),%ymm15 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,53,73,160,2,0 // vbroadcastss 0x2a049(%rip),%ymm14 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,61,68,160,2,0 // vbroadcastss 0x2a044(%rip),%ymm15 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,255,165,2,0 // vbroadcastss 0x2a5ff(%rip),%ymm0 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,226,125,24,5,53,160,2,0 // vbroadcastss 0x2a035(%rip),%ymm0 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -17546,7 +17544,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,192,164,2,0 // vbroadcastss 0x2a4c0(%rip),%ymm1 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,13,246,158,2,0 // vbroadcastss 0x29ef6(%rip),%ymm1 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -17574,11 +17572,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,117,164,2,0 // vbroadcastss 0x2a475(%rip),%ymm13 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,53,112,164,2,0 // vbroadcastss 0x2a470(%rip),%ymm14 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,45,171,158,2,0 // vbroadcastss 0x29eab(%rip),%ymm13 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,166,158,2,0 // vbroadcastss 0x29ea6(%rip),%ymm14 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,97,164,2,0 // vbroadcastss 0x2a461(%rip),%ymm15 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,61,151,158,2,0 // vbroadcastss 0x29e97(%rip),%ymm15 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -17634,7 +17632,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,23,163,2,0 // vbroadcastss 0x2a317(%rip),%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,5,77,157,2,0 // vbroadcastss 0x29d4d(%rip),%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17662,11 +17660,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,204,162,2,0 // vbroadcastss 0x2a2cc(%rip),%ymm13 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,53,199,162,2,0 // vbroadcastss 0x2a2c7(%rip),%ymm14 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,45,2,157,2,0 // vbroadcastss 0x29d02(%rip),%ymm13 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
+ .byte 196,98,125,24,53,253,156,2,0 // vbroadcastss 0x29cfd(%rip),%ymm14 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,184,162,2,0 // vbroadcastss 0x2a2b8(%rip),%ymm15 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,61,238,156,2,0 // vbroadcastss 0x29cee(%rip),%ymm15 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -17722,7 +17720,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,110,161,2,0 // vbroadcastss 0x2a16e(%rip),%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,5,164,155,2,0 // vbroadcastss 0x29ba4(%rip),%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17751,19 +17749,19 @@ _sk_srcover_rgba_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,179,0,0,0 // jne 8a4f <_sk_srcover_rgba_8888_hsw+0xd3>
+ .byte 15,133,179,0,0,0 // jne 8a49 <_sk_srcover_rgba_8888_hsw+0xd3>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,182,155,2,0 // vpand 0x29bb6(%rip),%ymm7,%ymm4 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x334>
+ .byte 197,197,219,37,28,157,2,0 // vpand 0x29d1c(%rip),%ymm7,%ymm4 # 326c0 <_sk_srcover_rgba_8888_sse2_lowp+0x498>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,201,155,2,0 // vpshufb 0x29bc9(%rip),%ymm7,%ymm5 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x354>
+ .byte 196,226,69,0,45,47,157,2,0 // vpshufb 0x29d2f(%rip),%ymm7,%ymm5 # 326e0 <_sk_srcover_rgba_8888_sse2_lowp+0x4b8>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,220,155,2,0 // vpshufb 0x29bdc(%rip),%ymm7,%ymm6 # 325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x374>
+ .byte 196,226,69,0,53,66,157,2,0 // vpshufb 0x29d42(%rip),%ymm7,%ymm6 # 32700 <_sk_srcover_rgba_8888_sse2_lowp+0x4d8>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,206,160,2,0 // vbroadcastss 0x2a0ce(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,4,155,2,0 // vbroadcastss 0x29b04(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,237,160,2,0 // vbroadcastss 0x2a0ed(%rip),%ymm9 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,13,35,155,2,0 // vbroadcastss 0x29b23(%rip),%ymm9 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -17783,7 +17781,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 8a86 <_sk_srcover_rgba_8888_hsw+0x10a>
+ .byte 117,65 // jne 8a80 <_sk_srcover_rgba_8888_hsw+0x10a>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17792,33 +17790,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 89a2 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 15,135,59,255,255,255 // ja 899c <_sk_srcover_rgba_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 8b70 <_sk_srcover_rgba_8888_hsw+0x1f4>
+ .byte 76,141,21,0,1,0,0 // lea 0x100(%rip),%r10 # 8b6c <_sk_srcover_rgba_8888_hsw+0x1f6>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,28,255,255,255 // jmpq 89a2 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,28,255,255,255 // jmpq 899c <_sk_srcover_rgba_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 8a4b <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 119,181 // ja 8a45 <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 8b8c <_sk_srcover_rgba_8888_hsw+0x210>
+ .byte 76,141,13,237,0,0,0 // lea 0xed(%rip),%r9 # 8b88 <_sk_srcover_rgba_8888_hsw+0x212>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 8a4b <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 235,153 // jmp 8a45 <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,201,254,255,255 // jmpq 89a2 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,201,254,255,255 // jmpq 899c <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -17831,10 +17829,10 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,122,254,255,255 // jmpq 89a2 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,122,254,255,255 // jmpq 899c <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 8a4b <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 233,16,255,255,255 // jmpq 8a45 <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -17842,35 +17840,35 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 8a4b <_sk_srcover_rgba_8888_hsw+0xcf>
- .byte 144 // nop
- .byte 11,255 // or %edi,%edi
+ .byte 233,220,254,255,255 // jmpq 8a45 <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 9,255 // or %edi,%edi
.byte 255 // (bad)
- .byte 255,88,255 // lcall *-0x1(%rax)
+ .byte 255,86,255 // callq *-0x1(%rsi)
.byte 255 // (bad)
- .byte 255,66,255 // incl -0x1(%rdx)
+ .byte 255,64,255 // incl -0x1(%rax)
.byte 255 // (bad)
- .byte 255,167,255,255,255,147 // jmpq *-0x6c000001(%rdi)
+ .byte 255,165,255,255,255,145 // jmpq *-0x6e000001(%rbp)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 8b85 <_sk_srcover_rgba_8888_hsw+0x209>
+ .byte 125,255 // jge 8b81 <_sk_srcover_rgba_8888_hsw+0x20b>
.byte 255 // (bad)
- .byte 255,105,255 // ljmp *-0x1(%rcx)
+ .byte 255,103,255 // jmpq *-0x1(%rdi)
.byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
+ .byte 255,28,255 // lcall *(%rdi,%rdi,8)
.byte 255 // (bad)
+ .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx)
.byte 255 // (bad)
- .byte 255,164,255,255,255,156,255 // jmpq *-0x630001(%rdi,%rdi,8)
.byte 255 // (bad)
+ .byte 255,214 // callq *%rsi
.byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
.byte 255 // (bad)
- .byte 255,203 // dec %ebx
+ .byte 255,201 // dec %ecx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 189,255,255,255,175 // mov $0xafffffff,%ebp
+ .byte 187,255,255,255,173 // mov $0xadffffff,%ebx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -17891,7 +17889,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,218,158,2,0 // vbroadcastss 0x29eda(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,14,153,2,0 // vbroadcastss 0x2990e(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -17903,7 +17901,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,185,158,2,0 // vbroadcastss 0x29eb9(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,237,152,2,0 // vbroadcastss 0x298ed(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -17915,7 +17913,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,155,158,2,0 // vbroadcastss 0x29e9b(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,207,152,2,0 // vbroadcastss 0x298cf(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -17948,7 +17946,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,86,158,2,0 // vbroadcastss 0x29e56(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,138,152,2,0 // vbroadcastss 0x2988a(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -18002,9 +18000,9 @@ HIDDEN _sk_unpremul_hsw
.globl _sk_unpremul_hsw
FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
- .byte 196,98,125,24,5,241,157,2,0 // vbroadcastss 0x29df1(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,37,152,2,0 // vbroadcastss 0x29825(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,20,158,2,0 // vbroadcastss 0x29e14(%rip),%ymm9 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,13,72,152,2,0 // vbroadcastss 0x29848(%rip),%ymm9 # 32508 <_sk_srcover_rgba_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -18018,16 +18016,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,238,157,2,0 // vbroadcastss 0x29dee(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,5,34,152,2,0 // vbroadcastss 0x29822(%rip),%ymm8 # 3250c <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,224,157,2,0 // vbroadcastss 0x29de0(%rip),%ymm11 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 196,98,125,24,37,191,157,2,0 // vbroadcastss 0x29dbf(%rip),%ymm12 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,29,20,152,2,0 // vbroadcastss 0x29814(%rip),%ymm11 # 32510 <_sk_srcover_rgba_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,243,151,2,0 // vbroadcastss 0x297f3(%rip),%ymm12 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,200,157,2,0 // vbroadcastss 0x29dc8(%rip),%ymm14 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,53,252,151,2,0 // vbroadcastss 0x297fc(%rip),%ymm14 # 32514 <_sk_srcover_rgba_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,190,157,2,0 // vbroadcastss 0x29dbe(%rip),%ymm10 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,21,242,151,2,0 // vbroadcastss 0x297f2(%rip),%ymm10 # 32518 <_sk_srcover_rgba_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -18050,16 +18048,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,86,157,2,0 // vbroadcastss 0x29d56(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,5,138,151,2,0 // vbroadcastss 0x2978a(%rip),%ymm8 # 3250c <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,72,157,2,0 // vbroadcastss 0x29d48(%rip),%ymm11 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
- .byte 196,98,125,24,37,39,157,2,0 // vbroadcastss 0x29d27(%rip),%ymm12 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,29,124,151,2,0 // vbroadcastss 0x2977c(%rip),%ymm11 # 32510 <_sk_srcover_rgba_8888_sse2_lowp+0x2e8>
+ .byte 196,98,125,24,37,91,151,2,0 // vbroadcastss 0x2975b(%rip),%ymm12 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,48,157,2,0 // vbroadcastss 0x29d30(%rip),%ymm14 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,53,100,151,2,0 // vbroadcastss 0x29764(%rip),%ymm14 # 32514 <_sk_srcover_rgba_8888_sse2_lowp+0x2ec>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,38,157,2,0 // vbroadcastss 0x29d26(%rip),%ymm10 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,21,90,151,2,0 // vbroadcastss 0x2975a(%rip),%ymm10 # 32518 <_sk_srcover_rgba_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -18083,19 +18081,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,202,156,2,0 // vbroadcastss 0x29cca(%rip),%ymm8 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,5,254,150,2,0 // vbroadcastss 0x296fe(%rip),%ymm8 # 3251c <_sk_srcover_rgba_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,192,156,2,0 // vbroadcastss 0x29cc0(%rip),%ymm11 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
- .byte 196,98,125,24,37,187,156,2,0 // vbroadcastss 0x29cbb(%rip),%ymm12 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,29,244,150,2,0 // vbroadcastss 0x296f4(%rip),%ymm11 # 32520 <_sk_srcover_rgba_8888_sse2_lowp+0x2f8>
+ .byte 196,98,125,24,37,239,150,2,0 // vbroadcastss 0x296ef(%rip),%ymm12 # 32524 <_sk_srcover_rgba_8888_sse2_lowp+0x2fc>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,220,157,2,0 // vbroadcastss 0x29ddc(%rip),%ymm14 # 32c28 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,53,16,152,2,0 // vbroadcastss 0x29810(%rip),%ymm14 # 32658 <_sk_srcover_rgba_8888_sse2_lowp+0x430>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,210,157,2,0 // vbroadcastss 0x29dd2(%rip),%ymm15 # 32c2c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,98,125,24,61,6,152,2,0 // vbroadcastss 0x29806(%rip),%ymm15 # 3265c <_sk_srcover_rgba_8888_sse2_lowp+0x434>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,142,156,2,0 // vbroadcastss 0x29c8e(%rip),%ymm13 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,45,194,150,2,0 // vbroadcastss 0x296c2(%rip),%ymm13 # 32530 <_sk_srcover_rgba_8888_sse2_lowp+0x308>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -18129,26 +18127,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,165,155,2,0 // vbroadcastss 0x29ba5(%rip),%ymm11 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,29,217,149,2,0 // vbroadcastss 0x295d9(%rip),%ymm11 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,234,155,2,0 // vbroadcastss 0x29bea(%rip),%ymm14 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,53,30,150,2,0 // vbroadcastss 0x2961e(%rip),%ymm14 # 32534 <_sk_srcover_rgba_8888_sse2_lowp+0x30c>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,209,155,2,0 // vbroadcastss 0x29bd1(%rip),%ymm14 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,53,5,150,2,0 // vbroadcastss 0x29605(%rip),%ymm14 # 3253c <_sk_srcover_rgba_8888_sse2_lowp+0x314>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,191,155,2,0 // vbroadcastss 0x29bbf(%rip),%ymm14 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,53,243,149,2,0 // vbroadcastss 0x295f3(%rip),%ymm14 # 32538 <_sk_srcover_rgba_8888_sse2_lowp+0x310>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,50,155,2,0 // vbroadcastss 0x29b32(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,29,102,149,2,0 // vbroadcastss 0x29566(%rip),%ymm11 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -18158,7 +18156,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,101,155,2,0 // vbroadcastss 0x29b65(%rip),%ymm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,5,153,149,2,0 // vbroadcastss 0x29599(%rip),%ymm8 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18175,30 +18173,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,190,154,2,0 // vbroadcastss 0x29abe(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,242,148,2,0 // vbroadcastss 0x294f2(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,1,155,2,0 // vbroadcastss 0x29b01(%rip),%ymm9 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,13,53,149,2,0 // vbroadcastss 0x29535(%rip),%ymm9 # 32538 <_sk_srcover_rgba_8888_sse2_lowp+0x310>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,255,154,2,0 // vbroadcastss 0x29aff(%rip),%ymm11 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,29,51,149,2,0 // vbroadcastss 0x29533(%rip),%ymm11 # 32544 <_sk_srcover_rgba_8888_sse2_lowp+0x31c>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,209,154,2,0 // vbroadcastss 0x29ad1(%rip),%ymm13 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,45,5,149,2,0 // vbroadcastss 0x29505(%rip),%ymm13 # 32534 <_sk_srcover_rgba_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,203,154,2,0 // vbroadcastss 0x29acb(%rip),%ymm14 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,53,255,148,2,0 // vbroadcastss 0x294ff(%rip),%ymm14 # 3253c <_sk_srcover_rgba_8888_sse2_lowp+0x314>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,197,154,2,0 // vbroadcastss 0x29ac5(%rip),%ymm3 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,226,125,24,29,249,148,2,0 // vbroadcastss 0x294f9(%rip),%ymm3 # 32548 <_sk_srcover_rgba_8888_sse2_lowp+0x320>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,156,154,2,0 // vbroadcastss 0x29a9c(%rip),%ymm12 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,37,208,148,2,0 // vbroadcastss 0x294d0(%rip),%ymm12 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x318>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -18214,7 +18212,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,80,154,2,0 // vbroadcastss 0x29a50(%rip),%ymm0 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,226,125,24,5,132,148,2,0 // vbroadcastss 0x29484(%rip),%ymm0 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -18266,12 +18264,12 @@ _sk_scale_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 91bb <_sk_scale_u8_hsw+0x52>
+ .byte 117,58 // jne 91b7 <_sk_scale_u8_hsw+0x52>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,193,154,2,0 // vpand 0x29ac1(%rip),%xmm8,%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,101,154,2,0 // vpand 0x29a65(%rip),%xmm8,%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,126,153,2,0 // vbroadcastss 0x2997e(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,13,178,147,2,0 // vbroadcastss 0x293b2(%rip),%ymm9 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -18284,15 +18282,15 @@ _sk_scale_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,183 // ja 9187 <_sk_scale_u8_hsw+0x1e>
+ .byte 119,183 // ja 9183 <_sk_scale_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 9254 <_sk_scale_u8_hsw+0xeb>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 9250 <_sk_scale_u8_hsw+0xeb>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,152 // jmp 9187 <_sk_scale_u8_hsw+0x1e>
+ .byte 235,152 // jmp 9183 <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -18300,7 +18298,7 @@ _sk_scale_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,111,255,255,255 // jmpq 9187 <_sk_scale_u8_hsw+0x1e>
+ .byte 233,111,255,255,255 // jmpq 9183 <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -18311,7 +18309,7 @@ _sk_scale_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,51,255,255,255 // jmpq 9187 <_sk_scale_u8_hsw+0x1e>
+ .byte 233,51,255,255,255 // jmpq 9183 <_sk_scale_u8_hsw+0x1e>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -18345,23 +18343,23 @@ _sk_scale_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,161,0,0,0 // jne 9330 <_sk_scale_565_hsw+0xc0>
+ .byte 15,133,161,0,0,0 // jne 932c <_sk_scale_565_hsw+0xc0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,129,152,2,0 // vpbroadcastd 0x29881(%rip),%ymm9 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,88,13,181,146,2,0 // vpbroadcastd 0x292b5(%rip),%ymm9 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,114,152,2,0 // vbroadcastss 0x29872(%rip),%ymm10 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,166,146,2,0 // vbroadcastss 0x292a6(%rip),%ymm10 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,104,152,2,0 // vpbroadcastd 0x29868(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,88,21,156,146,2,0 // vpbroadcastd 0x2929c(%rip),%ymm10 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,89,152,2,0 // vbroadcastss 0x29859(%rip),%ymm11 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,29,141,146,2,0 // vbroadcastss 0x2928d(%rip),%ymm11 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,79,152,2,0 // vpbroadcastd 0x2984f(%rip),%ymm11 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,88,29,131,146,2,0 // vpbroadcastd 0x29283(%rip),%ymm11 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,64,152,2,0 // vbroadcastss 0x29840(%rip),%ymm11 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,29,116,146,2,0 // vbroadcastss 0x29274(%rip),%ymm11 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18380,27 +18378,27 @@ _sk_scale_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,76,255,255,255 // ja 9295 <_sk_scale_565_hsw+0x25>
+ .byte 15,135,76,255,255,255 // ja 9291 <_sk_scale_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 93b8 <_sk_scale_565_hsw+0x148>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 93b4 <_sk_scale_565_hsw+0x148>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,42,255,255,255 // jmpq 9295 <_sk_scale_565_hsw+0x25>
+ .byte 233,42,255,255,255 // jmpq 9291 <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,12,255,255,255 // jmpq 9295 <_sk_scale_565_hsw+0x25>
+ .byte 233,12,255,255,255 // jmpq 9291 <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,222,254,255,255 // jmpq 9295 <_sk_scale_565_hsw+0x25>
+ .byte 233,222,254,255,255 // jmpq 9291 <_sk_scale_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -18450,12 +18448,12 @@ _sk_lerp_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,78 // jne 9469 <_sk_lerp_u8_hsw+0x66>
+ .byte 117,78 // jne 9465 <_sk_lerp_u8_hsw+0x66>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,39,152,2,0 // vpand 0x29827(%rip),%xmm8,%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,203,151,2,0 // vpand 0x297cb(%rip),%xmm8,%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,228,150,2,0 // vbroadcastss 0x296e4(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,13,24,145,2,0 // vbroadcastss 0x29118(%rip),%ymm9 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -18472,15 +18470,15 @@ _sk_lerp_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,163 // ja 9421 <_sk_lerp_u8_hsw+0x1e>
+ .byte 119,163 // ja 941d <_sk_lerp_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 9504 <_sk_lerp_u8_hsw+0x101>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 9500 <_sk_lerp_u8_hsw+0x101>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,132 // jmp 9421 <_sk_lerp_u8_hsw+0x1e>
+ .byte 235,132 // jmp 941d <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -18488,7 +18486,7 @@ _sk_lerp_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,91,255,255,255 // jmpq 9421 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,91,255,255,255 // jmpq 941d <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -18499,7 +18497,7 @@ _sk_lerp_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,31,255,255,255 // jmpq 9421 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,31,255,255,255 // jmpq 941d <_sk_lerp_u8_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -18507,7 +18505,7 @@ _sk_lerp_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde009514 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd72e8>
+ .byte 232,255,255,255,221 // callq ffffffffde009510 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd72e8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -18530,23 +18528,23 @@ _sk_lerp_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,181,0,0,0 // jne 95f4 <_sk_lerp_565_hsw+0xd4>
+ .byte 15,133,181,0,0,0 // jne 95f0 <_sk_lerp_565_hsw+0xd4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,209,149,2,0 // vpbroadcastd 0x295d1(%rip),%ymm9 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,88,13,5,144,2,0 // vpbroadcastd 0x29005(%rip),%ymm9 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,194,149,2,0 // vbroadcastss 0x295c2(%rip),%ymm10 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,246,143,2,0 // vbroadcastss 0x28ff6(%rip),%ymm10 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,184,149,2,0 // vpbroadcastd 0x295b8(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,88,21,236,143,2,0 // vpbroadcastd 0x28fec(%rip),%ymm10 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,169,149,2,0 // vbroadcastss 0x295a9(%rip),%ymm11 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,29,221,143,2,0 // vbroadcastss 0x28fdd(%rip),%ymm11 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,159,149,2,0 // vpbroadcastd 0x2959f(%rip),%ymm11 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,88,29,211,143,2,0 // vpbroadcastd 0x28fd3(%rip),%ymm11 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,144,149,2,0 // vbroadcastss 0x29590(%rip),%ymm11 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,29,196,143,2,0 // vbroadcastss 0x28fc4(%rip),%ymm11 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18569,27 +18567,27 @@ _sk_lerp_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,56,255,255,255 // ja 9545 <_sk_lerp_565_hsw+0x25>
+ .byte 15,135,56,255,255,255 // ja 9541 <_sk_lerp_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 967c <_sk_lerp_565_hsw+0x15c>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9678 <_sk_lerp_565_hsw+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,22,255,255,255 // jmpq 9545 <_sk_lerp_565_hsw+0x25>
+ .byte 233,22,255,255,255 // jmpq 9541 <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,248,254,255,255 // jmpq 9545 <_sk_lerp_565_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq 9541 <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,202,254,255,255 // jmpq 9545 <_sk_lerp_565_hsw+0x25>
+ .byte 233,202,254,255,255 // jmpq 9541 <_sk_lerp_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -18618,9 +18616,9 @@ _sk_load_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne 9716 <_sk_load_tables_hsw+0x7e>
+ .byte 117,116 // jne 9712 <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,16,143,2,0 // vpand 0x28f10(%rip),%ymm3,%ymm1 # 325c0 <_sk_srcover_rgba_8888_sse2_lowp+0x394>
+ .byte 197,229,219,13,116,144,2,0 // vpand 0x29074(%rip),%ymm3,%ymm1 # 32720 <_sk_srcover_rgba_8888_sse2_lowp+0x4f8>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -18628,16 +18626,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,7,143,2,0 // vpshufb 0x28f07(%rip),%ymm3,%ymm9 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3b4>
+ .byte 196,98,101,0,13,107,144,2,0 // vpshufb 0x2906b(%rip),%ymm3,%ymm9 # 32740 <_sk_srcover_rgba_8888_sse2_lowp+0x518>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,11,143,2,0 // vpshufb 0x28f0b(%rip),%ymm3,%ymm9 # 32600 <_sk_srcover_rgba_8888_sse2_lowp+0x3d4>
+ .byte 196,98,101,0,13,111,144,2,0 // vpshufb 0x2906f(%rip),%ymm3,%ymm9 # 32760 <_sk_srcover_rgba_8888_sse2_lowp+0x538>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,19,148,2,0 // vbroadcastss 0x29413(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,71,142,2,0 // vbroadcastss 0x28e47(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18646,21 +18644,21 @@ _sk_load_tables_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,122,255,255,255 // ja 96a8 <_sk_load_tables_hsw+0x10>
+ .byte 15,135,122,255,255,255 // ja 96a4 <_sk_load_tables_hsw+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 97c4 <_sk_load_tables_hsw+0x12c>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 97c0 <_sk_load_tables_hsw+0x12c>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,90,255,255,255 // jmpq 96a8 <_sk_load_tables_hsw+0x10>
+ .byte 233,90,255,255,255 // jmpq 96a4 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,51,255,255,255 // jmpq 96a8 <_sk_load_tables_hsw+0x10>
+ .byte 233,51,255,255,255 // jmpq 96a4 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -18673,8 +18671,8 @@ _sk_load_tables_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,228,254,255,255 // jmpq 96a8 <_sk_load_tables_hsw+0x10>
- .byte 127,255 // jg 97c5 <_sk_load_tables_hsw+0x12d>
+ .byte 233,228,254,255,255 // jmpq 96a4 <_sk_load_tables_hsw+0x10>
+ .byte 127,255 // jg 97c1 <_sk_load_tables_hsw+0x12d>
.byte 255 // (bad)
.byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
.byte 255 // (bad)
@@ -18702,7 +18700,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne 98cd <_sk_load_tables_u16_be_hsw+0xed>
+ .byte 15,133,215,0,0,0 // jne 98c9 <_sk_load_tables_u16_be_hsw+0xed>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -18718,7 +18716,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,8,148,2,0 // vmovdqa 0x29408(%rip),%xmm11 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,121,111,29,172,147,2,0 // vmovdqa 0x293ac(%rip),%xmm11 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -18743,36 +18741,36 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,120,146,2,0 // vbroadcastss 0x29278(%rip),%ymm8 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,5,172,140,2,0 // vbroadcastss 0x28cac(%rip),%ymm8 # 3256c <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 9933 <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 116,85 // je 992f <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 9933 <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 114,72 // jb 992f <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 9940 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 116,72 // je 993c <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 9940 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 114,59 // jb 993c <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,251,254,255,255 // je 9811 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,251,254,255,255 // je 980d <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,234,254,255,255 // jb 9811 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,234,254,255,255 // jb 980d <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,222,254,255,255 // jmpq 9811 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,222,254,255,255 // jmpq 980d <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,209,254,255,255 // jmpq 9811 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,209,254,255,255 // jmpq 980d <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,200,254,255,255 // jmpq 9811 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,200,254,255,255 // jmpq 980d <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -18782,7 +18780,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,206,0,0,0 // jne 9a29 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
+ .byte 15,133,206,0,0,0 // jne 9a25 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -18803,7 +18801,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,136,146,2,0 // vmovdqa 0x29288(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,111,29,44,146,2,0 // vmovdqa 0x2922c(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -18823,76 +18821,76 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,129,144,2,0 // vbroadcastss 0x29081(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,181,138,2,0 // vbroadcastss 0x28ab5(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 9a61 <_sk_load_tables_rgb_u16_be_hsw+0x118>
+ .byte 117,31 // jne 9a5d <_sk_load_tables_rgb_u16_be_hsw+0x118>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq 9990 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,47,255,255,255 // jmpq 998c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 9aab <_sk_load_tables_rgb_u16_be_hsw+0x162>
+ .byte 114,48 // jb 9aa7 <_sk_load_tables_rgb_u16_be_hsw+0x162>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 9ac5 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
+ .byte 117,48 // jne 9ac1 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq 9990 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,229,254,255,255 // jmpq 998c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq 9990 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,203,254,255,255 // jmpq 998c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 9b06 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
+ .byte 114,39 // jb 9b02 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 9b17 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
+ .byte 117,30 // jne 9b13 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq 9990 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,138,254,255,255 // jmpq 998c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq 9990 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,121,254,255,255 // jmpq 998c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 9b4a <_sk_load_tables_rgb_u16_be_hsw+0x201>
+ .byte 114,25 // jb 9b46 <_sk_load_tables_rgb_u16_be_hsw+0x201>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq 9990 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,70,254,255,255 // jmpq 998c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq 9990 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,61,254,255,255 // jmpq 998c <_sk_load_tables_rgb_u16_be_hsw+0x47>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
FUNCTION(_sk_byte_tables_hsw)
_sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,118,143,2,0 // vbroadcastss 0x28f76(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,170,137,2,0 // vbroadcastss 0x289aa(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -19022,7 +19020,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,72,141,2,0 // vbroadcastss 0x28d48(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,124,135,2,0 // vbroadcastss 0x2877c(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -19144,7 +19142,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,28,139,2,0 // vbroadcastss 0x28b1c(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,80,133,2,0 // vbroadcastss 0x28550(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -19247,33 +19245,33 @@ _sk_parametric_r_hsw:
.byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,2,138,2,0 // vbroadcastss 0x28a02(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
- .byte 196,98,125,24,45,253,137,2,0 // vbroadcastss 0x289fd(%rip),%ymm13 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,37,54,132,2,0 // vbroadcastss 0x28436(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,45,49,132,2,0 // vbroadcastss 0x28431(%rip),%ymm13 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,79,137,2,0 // vbroadcastss 0x2894f(%rip),%ymm13 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,45,131,131,2,0 // vbroadcastss 0x28383(%rip),%ymm13 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,229,137,2,0 // vbroadcastss 0x289e5(%rip),%ymm13 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,45,25,132,2,0 // vbroadcastss 0x28419(%rip),%ymm13 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,219,137,2,0 // vbroadcastss 0x289db(%rip),%ymm11 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,29,15,132,2,0 // vbroadcastss 0x2840f(%rip),%ymm11 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,209,137,2,0 // vbroadcastss 0x289d1(%rip),%ymm12 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,5,132,2,0 // vbroadcastss 0x28405(%rip),%ymm12 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,199,137,2,0 // vbroadcastss 0x289c7(%rip),%ymm12 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,251,131,2,0 // vbroadcastss 0x283fb(%rip),%ymm12 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,168,137,2,0 // vbroadcastss 0x289a8(%rip),%ymm11 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,220,131,2,0 // vbroadcastss 0x283dc(%rip),%ymm11 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,158,137,2,0 // vbroadcastss 0x2899e(%rip),%ymm11 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,210,131,2,0 // vbroadcastss 0x283d2(%rip),%ymm11 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11
- .byte 196,226,125,24,5,148,137,2,0 // vbroadcastss 0x28994(%rip),%ymm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,226,125,24,5,200,131,2,0 // vbroadcastss 0x283c8(%rip),%ymm0 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,138,137,2,0 // vbroadcastss 0x2898a(%rip),%ymm10 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,21,190,131,2,0 // vbroadcastss 0x283be(%rip),%ymm10 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0
.byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,21,125,137,2,0 // vbroadcastss 0x2897d(%rip),%ymm10 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,21,177,131,2,0 // vbroadcastss 0x283b1(%rip),%ymm10 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19281,7 +19279,7 @@ _sk_parametric_r_hsw:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,145,136,2,0 // vbroadcastss 0x28891(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,197,130,2,0 // vbroadcastss 0x282c5(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19301,33 +19299,33 @@ _sk_parametric_g_hsw:
.byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,221,136,2,0 // vbroadcastss 0x288dd(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
- .byte 196,98,125,24,45,216,136,2,0 // vbroadcastss 0x288d8(%rip),%ymm13 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,37,17,131,2,0 // vbroadcastss 0x28311(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,45,12,131,2,0 // vbroadcastss 0x2830c(%rip),%ymm13 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,42,136,2,0 // vbroadcastss 0x2882a(%rip),%ymm13 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,45,94,130,2,0 // vbroadcastss 0x2825e(%rip),%ymm13 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,192,136,2,0 // vbroadcastss 0x288c0(%rip),%ymm13 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,45,244,130,2,0 // vbroadcastss 0x282f4(%rip),%ymm13 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,182,136,2,0 // vbroadcastss 0x288b6(%rip),%ymm11 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,29,234,130,2,0 // vbroadcastss 0x282ea(%rip),%ymm11 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,172,136,2,0 // vbroadcastss 0x288ac(%rip),%ymm12 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,224,130,2,0 // vbroadcastss 0x282e0(%rip),%ymm12 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,162,136,2,0 // vbroadcastss 0x288a2(%rip),%ymm12 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,214,130,2,0 // vbroadcastss 0x282d6(%rip),%ymm12 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,131,136,2,0 // vbroadcastss 0x28883(%rip),%ymm11 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,183,130,2,0 // vbroadcastss 0x282b7(%rip),%ymm11 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,121,136,2,0 // vbroadcastss 0x28879(%rip),%ymm11 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,173,130,2,0 // vbroadcastss 0x282ad(%rip),%ymm11 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11
- .byte 196,226,125,24,13,111,136,2,0 // vbroadcastss 0x2886f(%rip),%ymm1 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,226,125,24,13,163,130,2,0 // vbroadcastss 0x282a3(%rip),%ymm1 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,101,136,2,0 // vbroadcastss 0x28865(%rip),%ymm10 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,21,153,130,2,0 // vbroadcastss 0x28299(%rip),%ymm10 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,98,125,24,21,88,136,2,0 // vbroadcastss 0x28858(%rip),%ymm10 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,21,140,130,2,0 // vbroadcastss 0x2828c(%rip),%ymm10 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19335,7 +19333,7 @@ _sk_parametric_g_hsw:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,108,135,2,0 // vbroadcastss 0x2876c(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,160,129,2,0 // vbroadcastss 0x281a0(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19355,33 +19353,33 @@ _sk_parametric_b_hsw:
.byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,184,135,2,0 // vbroadcastss 0x287b8(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
- .byte 196,98,125,24,45,179,135,2,0 // vbroadcastss 0x287b3(%rip),%ymm13 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,37,236,129,2,0 // vbroadcastss 0x281ec(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,45,231,129,2,0 // vbroadcastss 0x281e7(%rip),%ymm13 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,5,135,2,0 // vbroadcastss 0x28705(%rip),%ymm13 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,45,57,129,2,0 // vbroadcastss 0x28139(%rip),%ymm13 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,155,135,2,0 // vbroadcastss 0x2879b(%rip),%ymm13 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,45,207,129,2,0 // vbroadcastss 0x281cf(%rip),%ymm13 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,145,135,2,0 // vbroadcastss 0x28791(%rip),%ymm11 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,29,197,129,2,0 // vbroadcastss 0x281c5(%rip),%ymm11 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,135,135,2,0 // vbroadcastss 0x28787(%rip),%ymm12 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,187,129,2,0 // vbroadcastss 0x281bb(%rip),%ymm12 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,125,135,2,0 // vbroadcastss 0x2877d(%rip),%ymm12 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,177,129,2,0 // vbroadcastss 0x281b1(%rip),%ymm12 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,94,135,2,0 // vbroadcastss 0x2875e(%rip),%ymm11 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,146,129,2,0 // vbroadcastss 0x28192(%rip),%ymm11 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,84,135,2,0 // vbroadcastss 0x28754(%rip),%ymm11 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,136,129,2,0 // vbroadcastss 0x28188(%rip),%ymm11 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11
- .byte 196,226,125,24,21,74,135,2,0 // vbroadcastss 0x2874a(%rip),%ymm2 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,226,125,24,21,126,129,2,0 // vbroadcastss 0x2817e(%rip),%ymm2 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,64,135,2,0 // vbroadcastss 0x28740(%rip),%ymm10 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,21,116,129,2,0 // vbroadcastss 0x28174(%rip),%ymm10 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,98,125,24,21,51,135,2,0 // vbroadcastss 0x28733(%rip),%ymm10 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,21,103,129,2,0 // vbroadcastss 0x28167(%rip),%ymm10 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19389,7 +19387,7 @@ _sk_parametric_b_hsw:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,71,134,2,0 // vbroadcastss 0x28647(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,123,128,2,0 // vbroadcastss 0x2807b(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19409,33 +19407,33 @@ _sk_parametric_a_hsw:
.byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,147,134,2,0 // vbroadcastss 0x28693(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
- .byte 196,98,125,24,45,142,134,2,0 // vbroadcastss 0x2868e(%rip),%ymm13 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,37,199,128,2,0 // vbroadcastss 0x280c7(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
+ .byte 196,98,125,24,45,194,128,2,0 // vbroadcastss 0x280c2(%rip),%ymm13 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,224,133,2,0 // vbroadcastss 0x285e0(%rip),%ymm13 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,45,20,128,2,0 // vbroadcastss 0x28014(%rip),%ymm13 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,118,134,2,0 // vbroadcastss 0x28676(%rip),%ymm13 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,45,170,128,2,0 // vbroadcastss 0x280aa(%rip),%ymm13 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,108,134,2,0 // vbroadcastss 0x2866c(%rip),%ymm11 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,29,160,128,2,0 // vbroadcastss 0x280a0(%rip),%ymm11 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,98,134,2,0 // vbroadcastss 0x28662(%rip),%ymm12 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,150,128,2,0 // vbroadcastss 0x28096(%rip),%ymm12 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,88,134,2,0 // vbroadcastss 0x28658(%rip),%ymm12 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,140,128,2,0 // vbroadcastss 0x2808c(%rip),%ymm12 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,57,134,2,0 // vbroadcastss 0x28639(%rip),%ymm11 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,109,128,2,0 // vbroadcastss 0x2806d(%rip),%ymm11 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,47,134,2,0 // vbroadcastss 0x2862f(%rip),%ymm11 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,99,128,2,0 // vbroadcastss 0x28063(%rip),%ymm11 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11
- .byte 196,226,125,24,29,37,134,2,0 // vbroadcastss 0x28625(%rip),%ymm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,226,125,24,29,89,128,2,0 // vbroadcastss 0x28059(%rip),%ymm3 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,27,134,2,0 // vbroadcastss 0x2861b(%rip),%ymm10 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,21,79,128,2,0 // vbroadcastss 0x2804f(%rip),%ymm10 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3
.byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3
- .byte 196,98,125,24,21,14,134,2,0 // vbroadcastss 0x2860e(%rip),%ymm10 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,21,66,128,2,0 // vbroadcastss 0x28042(%rip),%ymm10 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19443,7 +19441,7 @@ _sk_parametric_a_hsw:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,34,133,2,0 // vbroadcastss 0x28522(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,86,127,2,0 // vbroadcastss 0x27f56(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19462,35 +19460,35 @@ _sk_gamma_hsw:
.byte 197,252,40,241 // vmovaps %ymm1,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,121,133,2,0 // vbroadcastss 0x28579(%rip),%ymm11 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
- .byte 196,226,125,24,45,116,133,2,0 // vbroadcastss 0x28574(%rip),%ymm5 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,29,173,127,2,0 // vbroadcastss 0x27fad(%rip),%ymm11 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
+ .byte 196,226,125,24,45,168,127,2,0 // vbroadcastss 0x27fa8(%rip),%ymm5 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 197,124,84,205 // vandps %ymm5,%ymm0,%ymm9
- .byte 196,226,125,24,37,199,132,2,0 // vbroadcastss 0x284c7(%rip),%ymm4 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,226,125,24,37,251,126,2,0 // vbroadcastss 0x27efb(%rip),%ymm4 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,52,86,228 // vorps %ymm4,%ymm9,%ymm12
- .byte 196,98,125,24,45,94,133,2,0 // vbroadcastss 0x2855e(%rip),%ymm13 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,45,146,127,2,0 // vbroadcastss 0x27f92(%rip),%ymm13 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
- .byte 196,98,125,24,13,84,133,2,0 // vbroadcastss 0x28554(%rip),%ymm9 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,13,136,127,2,0 // vbroadcastss 0x27f88(%rip),%ymm9 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,66,29,188,209 // vfnmadd231ps %ymm9,%ymm12,%ymm10
.byte 197,124,91,246 // vcvtdq2ps %ymm6,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,255 // vcvtdq2ps %ymm7,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,98,125,24,29,56,133,2,0 // vbroadcastss 0x28538(%rip),%ymm11 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,29,108,127,2,0 // vbroadcastss 0x27f6c(%rip),%ymm11 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
- .byte 196,98,125,24,45,46,133,2,0 // vbroadcastss 0x2852e(%rip),%ymm13 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,45,98,127,2,0 // vbroadcastss 0x27f62(%rip),%ymm13 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
.byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
.byte 196,67,125,8,194,1 // vroundps $0x1,%ymm10,%ymm8
.byte 196,65,44,92,192 // vsubps %ymm8,%ymm10,%ymm8
- .byte 196,226,125,24,21,10,133,2,0 // vbroadcastss 0x2850a(%rip),%ymm2 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,226,125,24,21,62,127,2,0 // vbroadcastss 0x27f3e(%rip),%ymm2 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 197,44,88,210 // vaddps %ymm2,%ymm10,%ymm10
- .byte 196,226,125,24,29,1,133,2,0 // vbroadcastss 0x28501(%rip),%ymm3 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,226,125,24,29,53,127,2,0 // vbroadcastss 0x27f35(%rip),%ymm3 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 196,98,61,188,211 // vfnmadd231ps %ymm3,%ymm8,%ymm10
- .byte 196,226,125,24,13,247,132,2,0 // vbroadcastss 0x284f7(%rip),%ymm1 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,226,125,24,13,43,127,2,0 // vbroadcastss 0x27f2b(%rip),%ymm1 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,5,237,132,2,0 // vbroadcastss 0x284ed(%rip),%ymm0 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,226,125,24,5,33,127,2,0 // vbroadcastss 0x27f21(%rip),%ymm0 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 196,65,124,94,192 // vdivps %ymm8,%ymm0,%ymm8
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 197,204,84,245 // vandps %ymm5,%ymm6,%ymm6
@@ -19521,7 +19519,7 @@ _sk_gamma_hsw:
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
.byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
.byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 196,226,125,24,13,94,132,2,0 // vbroadcastss 0x2845e(%rip),%ymm1 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,13,146,126,2,0 // vbroadcastss 0x27e92(%rip),%ymm1 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 197,188,89,209 // vmulps %ymm1,%ymm8,%ymm2
.byte 197,204,89,217 // vmulps %ymm1,%ymm6,%ymm3
.byte 197,252,89,225 // vmulps %ymm1,%ymm0,%ymm4
@@ -19541,26 +19539,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,28,132,2,0 // vbroadcastss 0x2841c(%rip),%ymm8 # 32b6c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
- .byte 196,98,125,24,13,123,131,2,0 // vbroadcastss 0x2837b(%rip),%ymm9 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,125,24,21,14,132,2,0 // vbroadcastss 0x2840e(%rip),%ymm10 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,5,80,126,2,0 // vbroadcastss 0x27e50(%rip),%ymm8 # 3259c <_sk_srcover_rgba_8888_sse2_lowp+0x374>
+ .byte 196,98,125,24,13,175,125,2,0 // vbroadcastss 0x27daf(%rip),%ymm9 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
+ .byte 196,98,125,24,21,66,126,2,0 // vbroadcastss 0x27e42(%rip),%ymm10 # 325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x378>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,255,131,2,0 // vbroadcastss 0x283ff(%rip),%ymm9 # 32b74 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,13,51,126,2,0 // vbroadcastss 0x27e33(%rip),%ymm9 # 325a4 <_sk_srcover_rgba_8888_sse2_lowp+0x37c>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,245,131,2,0 // vbroadcastss 0x283f5(%rip),%ymm0 # 32b78 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,226,125,24,5,41,126,2,0 // vbroadcastss 0x27e29(%rip),%ymm0 # 325a8 <_sk_srcover_rgba_8888_sse2_lowp+0x380>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,236,131,2,0 // vbroadcastss 0x283ec(%rip),%ymm8 # 32b7c <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,32,126,2,0 // vbroadcastss 0x27e20(%rip),%ymm8 # 325ac <_sk_srcover_rgba_8888_sse2_lowp+0x384>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,226,131,2,0 // vbroadcastss 0x283e2(%rip),%ymm9 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,24,13,22,126,2,0 // vbroadcastss 0x27e16(%rip),%ymm9 # 325b0 <_sk_srcover_rgba_8888_sse2_lowp+0x388>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,207,131,2,0 // vbroadcastss 0x283cf(%rip),%ymm2 # 32b84 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,226,125,24,21,3,126,2,0 // vbroadcastss 0x27e03(%rip),%ymm2 # 325b4 <_sk_srcover_rgba_8888_sse2_lowp+0x38c>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,197,131,2,0 // vbroadcastss 0x283c5(%rip),%ymm11 # 32b88 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,98,125,24,29,249,125,2,0 // vbroadcastss 0x27df9(%rip),%ymm11 # 325b8 <_sk_srcover_rgba_8888_sse2_lowp+0x390>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,187,131,2,0 // vbroadcastss 0x283bb(%rip),%ymm12 # 32b8c <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,98,125,24,37,239,125,2,0 // vbroadcastss 0x27def(%rip),%ymm12 # 325bc <_sk_srcover_rgba_8888_sse2_lowp+0x394>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -19575,9 +19573,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,112,131,2,0 // vbroadcastss 0x28370(%rip),%ymm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,226,125,24,5,164,125,2,0 // vbroadcastss 0x27da4(%rip),%ymm0 # 325c0 <_sk_srcover_rgba_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,103,131,2,0 // vbroadcastss 0x28367(%rip),%ymm8 # 32b94 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,98,125,24,5,155,125,2,0 // vbroadcastss 0x27d9b(%rip),%ymm8 # 325c4 <_sk_srcover_rgba_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19593,12 +19591,12 @@ _sk_load_a8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne a882 <_sk_load_a8_hsw+0x4c>
+ .byte 117,52 // jne a87e <_sk_load_a8_hsw+0x4c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,244,131,2,0 // vpand 0x283f4(%rip),%xmm0,%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,152,131,2,0 // vpand 0x28398(%rip),%xmm0,%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,178,130,2,0 // vbroadcastss 0x282b2(%rip),%ymm1 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,13,230,124,2,0 // vbroadcastss 0x27ce6(%rip),%ymm1 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19610,15 +19608,15 @@ _sk_load_a8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja a854 <_sk_load_a8_hsw+0x1e>
+ .byte 119,190 // ja a850 <_sk_load_a8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # a918 <_sk_load_a8_hsw+0xe2>
+ .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # a914 <_sk_load_a8_hsw+0xe2>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,159 // jmp a854 <_sk_load_a8_hsw+0x1e>
+ .byte 235,159 // jmp a850 <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19626,7 +19624,7 @@ _sk_load_a8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq a854 <_sk_load_a8_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq a850 <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19637,7 +19635,7 @@ _sk_load_a8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,60,255,255,255 // jmpq a854 <_sk_load_a8_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq a850 <_sk_load_a8_hsw+0x1e>
.byte 146 // xchg %eax,%edx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -19669,12 +19667,12 @@ _sk_load_a8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne a980 <_sk_load_a8_dst_hsw+0x4c>
+ .byte 117,52 // jne a97c <_sk_load_a8_dst_hsw+0x4c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,246,130,2,0 // vpand 0x282f6(%rip),%xmm4,%xmm4 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,154,130,2,0 // vpand 0x2829a(%rip),%xmm4,%xmm4 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,180,129,2,0 // vbroadcastss 0x281b4(%rip),%ymm5 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,45,232,123,2,0 // vbroadcastss 0x27be8(%rip),%ymm5 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -19686,15 +19684,15 @@ _sk_load_a8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja a952 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 119,190 // ja a94e <_sk_load_a8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # aa18 <_sk_load_a8_dst_hsw+0xe4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # aa14 <_sk_load_a8_dst_hsw+0xe4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,159 // jmp a952 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 235,159 // jmp a94e <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19702,7 +19700,7 @@ _sk_load_a8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq a952 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq a94e <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19713,7 +19711,7 @@ _sk_load_a8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,60,255,255,255 // jmpq a952 <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq a94e <_sk_load_a8_dst_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -19722,7 +19720,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00aa28 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd87fc>
+ .byte 232,255,255,255,221 // callq ffffffffde00aa24 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd87fc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -19789,7 +19787,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,251,127,2,0 // vbroadcastss 0x27ffb(%rip),%ymm1 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,13,47,122,2,0 // vbroadcastss 0x27a2f(%rip),%ymm1 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19811,14 +19809,14 @@ _sk_store_a8_hsw:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,120,127,2,0 // vbroadcastss 0x27f78(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,172,121,2,0 // vbroadcastss 0x279ac(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne ab84 <_sk_store_a8_hsw+0x44>
+ .byte 117,10 // jne ab80 <_sk_store_a8_hsw+0x44>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19826,25 +19824,25 @@ _sk_store_a8_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja ab80 <_sk_store_a8_hsw+0x40>
+ .byte 119,236 // ja ab7c <_sk_store_a8_hsw+0x40>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # abfc <_sk_store_a8_hsw+0xbc>
+ .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # abf8 <_sk_store_a8_hsw+0xbc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp ab80 <_sk_store_a8_hsw+0x40>
+ .byte 235,202 // jmp ab7c <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,153,128,2,0 // vpshufb 0x28099(%rip),%xmm8,%xmm8 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 196,98,57,0,5,61,128,2,0 // vpshufb 0x2803d(%rip),%xmm8,%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp ab80 <_sk_store_a8_hsw+0x40>
+ .byte 235,176 // jmp ab7c <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,127,128,2,0 // vpshufb 0x2807f(%rip),%xmm8,%xmm8 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
+ .byte 196,98,57,0,5,35,128,2,0 // vpshufb 0x28023(%rip),%xmm8,%xmm8 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp ab80 <_sk_store_a8_hsw+0x40>
+ .byte 235,135 // jmp ab7c <_sk_store_a8_hsw+0x40>
.byte 15,31,0 // nopl (%rax)
.byte 177,255 // mov $0xff,%cl
.byte 255 // (bad)
@@ -19877,15 +19875,15 @@ _sk_load_g8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne ac69 <_sk_load_g8_hsw+0x51>
+ .byte 117,57 // jne ac65 <_sk_load_g8_hsw+0x51>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,18,128,2,0 // vpand 0x28012(%rip),%xmm0,%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,182,127,2,0 // vpand 0x27fb6(%rip),%xmm0,%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,208,126,2,0 // vbroadcastss 0x27ed0(%rip),%ymm1 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,13,4,121,2,0 // vbroadcastss 0x27904(%rip),%ymm1 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,73,126,2,0 // vbroadcastss 0x27e49(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,125,120,2,0 // vbroadcastss 0x2787d(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -19894,15 +19892,15 @@ _sk_load_g8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja ac36 <_sk_load_g8_hsw+0x1e>
+ .byte 119,185 // ja ac32 <_sk_load_g8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # ad00 <_sk_load_g8_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # acfc <_sk_load_g8_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,154 // jmp ac36 <_sk_load_g8_hsw+0x1e>
+ .byte 235,154 // jmp ac32 <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19910,7 +19908,7 @@ _sk_load_g8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq ac36 <_sk_load_g8_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq ac32 <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19921,7 +19919,7 @@ _sk_load_g8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,55,255,255,255 // jmpq ac36 <_sk_load_g8_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq ac32 <_sk_load_g8_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19930,7 +19928,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00ad10 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8ae4>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00ad0c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8ae4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -19952,15 +19950,15 @@ _sk_load_g8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne ad6d <_sk_load_g8_dst_hsw+0x51>
+ .byte 117,57 // jne ad69 <_sk_load_g8_dst_hsw+0x51>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,14,127,2,0 // vpand 0x27f0e(%rip),%xmm4,%xmm4 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,178,126,2,0 // vpand 0x27eb2(%rip),%xmm4,%xmm4 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,204,125,2,0 // vbroadcastss 0x27dcc(%rip),%ymm5 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,45,0,120,2,0 // vbroadcastss 0x27800(%rip),%ymm5 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,69,125,2,0 // vbroadcastss 0x27d45(%rip),%ymm7 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,61,121,119,2,0 // vbroadcastss 0x27779(%rip),%ymm7 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -19969,15 +19967,15 @@ _sk_load_g8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja ad3a <_sk_load_g8_dst_hsw+0x1e>
+ .byte 119,185 // ja ad36 <_sk_load_g8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # ae04 <_sk_load_g8_dst_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # ae00 <_sk_load_g8_dst_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,154 // jmp ad3a <_sk_load_g8_dst_hsw+0x1e>
+ .byte 235,154 // jmp ad36 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19985,7 +19983,7 @@ _sk_load_g8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq ad3a <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq ad36 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19996,7 +19994,7 @@ _sk_load_g8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,55,255,255,255 // jmpq ad3a <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq ad36 <_sk_load_g8_dst_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -20005,7 +20003,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00ae14 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8be8>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00ae10 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8be8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20072,10 +20070,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,15,124,2,0 // vbroadcastss 0x27c0f(%rip),%ymm1 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,13,67,118,2,0 // vbroadcastss 0x27643(%rip),%ymm1 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,136,123,2,0 // vbroadcastss 0x27b88(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,188,117,2,0 // vbroadcastss 0x275bc(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -20096,53 +20094,53 @@ _sk_load_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne afbe <_sk_load_565_hsw+0x8d>
+ .byte 117,114 // jne afba <_sk_load_565_hsw+0x8d>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,196,123,2,0 // vpbroadcastd 0x27bc4(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,88,5,248,117,2,0 // vpbroadcastd 0x275f8(%rip),%ymm0 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,183,123,2,0 // vbroadcastss 0x27bb7(%rip),%ymm1 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,235,117,2,0 // vbroadcastss 0x275eb(%rip),%ymm1 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,174,123,2,0 // vpbroadcastd 0x27bae(%rip),%ymm1 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,88,13,226,117,2,0 // vpbroadcastd 0x275e2(%rip),%ymm1 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,161,123,2,0 // vbroadcastss 0x27ba1(%rip),%ymm3 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,29,213,117,2,0 // vbroadcastss 0x275d5(%rip),%ymm3 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,152,123,2,0 // vpbroadcastd 0x27b98(%rip),%ymm3 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,88,29,204,117,2,0 // vpbroadcastd 0x275cc(%rip),%ymm3 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,139,123,2,0 // vbroadcastss 0x27b8b(%rip),%ymm3 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,29,191,117,2,0 // vbroadcastss 0x275bf(%rip),%ymm3 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,236,122,2,0 // vbroadcastss 0x27aec(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,32,117,2,0 // vbroadcastss 0x27520(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja af52 <_sk_load_565_hsw+0x21>
+ .byte 119,128 // ja af4e <_sk_load_565_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # b040 <_sk_load_565_hsw+0x10f>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # b03c <_sk_load_565_hsw+0x10f>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,94,255,255,255 // jmpq af52 <_sk_load_565_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq af4e <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,65,255,255,255 // jmpq af52 <_sk_load_565_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq af4e <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,20,255,255,255 // jmpq af52 <_sk_load_565_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq af4e <_sk_load_565_hsw+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -20175,53 +20173,53 @@ _sk_load_565_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne b0e9 <_sk_load_565_dst_hsw+0x8d>
+ .byte 117,114 // jne b0e5 <_sk_load_565_dst_hsw+0x8d>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,153,122,2,0 // vpbroadcastd 0x27a99(%rip),%ymm4 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,88,37,205,116,2,0 // vpbroadcastd 0x274cd(%rip),%ymm4 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,140,122,2,0 // vbroadcastss 0x27a8c(%rip),%ymm5 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,45,192,116,2,0 // vbroadcastss 0x274c0(%rip),%ymm5 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,131,122,2,0 // vpbroadcastd 0x27a83(%rip),%ymm5 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,88,45,183,116,2,0 // vpbroadcastd 0x274b7(%rip),%ymm5 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,118,122,2,0 // vbroadcastss 0x27a76(%rip),%ymm7 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,61,170,116,2,0 // vbroadcastss 0x274aa(%rip),%ymm7 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,109,122,2,0 // vpbroadcastd 0x27a6d(%rip),%ymm7 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,88,61,161,116,2,0 // vpbroadcastd 0x274a1(%rip),%ymm7 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,96,122,2,0 // vbroadcastss 0x27a60(%rip),%ymm7 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,61,148,116,2,0 // vbroadcastss 0x27494(%rip),%ymm7 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,193,121,2,0 // vbroadcastss 0x279c1(%rip),%ymm7 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,61,245,115,2,0 // vbroadcastss 0x273f5(%rip),%ymm7 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja b07d <_sk_load_565_dst_hsw+0x21>
+ .byte 119,128 // ja b079 <_sk_load_565_dst_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b16c <_sk_load_565_dst_hsw+0x110>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b168 <_sk_load_565_dst_hsw+0x110>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,94,255,255,255 // jmpq b07d <_sk_load_565_dst_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq b079 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,255,255,255 // jmpq b07d <_sk_load_565_dst_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq b079 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,20,255,255,255 // jmpq b07d <_sk_load_565_dst_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq b079 <_sk_load_565_dst_hsw+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20300,23 +20298,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,180,120,2,0 // vpbroadcastd 0x278b4(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,88,5,232,114,2,0 // vpbroadcastd 0x272e8(%rip),%ymm0 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,167,120,2,0 // vbroadcastss 0x278a7(%rip),%ymm1 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,219,114,2,0 // vbroadcastss 0x272db(%rip),%ymm1 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,158,120,2,0 // vpbroadcastd 0x2789e(%rip),%ymm1 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,88,13,210,114,2,0 // vpbroadcastd 0x272d2(%rip),%ymm1 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,145,120,2,0 // vbroadcastss 0x27891(%rip),%ymm3 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,29,197,114,2,0 // vbroadcastss 0x272c5(%rip),%ymm3 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,136,120,2,0 // vpbroadcastd 0x27888(%rip),%ymm3 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,88,29,188,114,2,0 // vpbroadcastd 0x272bc(%rip),%ymm3 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,123,120,2,0 // vbroadcastss 0x2787b(%rip),%ymm3 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,29,175,114,2,0 // vbroadcastss 0x272af(%rip),%ymm3 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,220,119,2,0 // vbroadcastss 0x277dc(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,16,114,2,0 // vbroadcastss 0x27210(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -20334,11 +20332,11 @@ _sk_store_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,164,120,2,0 // vbroadcastss 0x278a4(%rip),%ymm8 # 32b98 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,98,125,24,5,216,114,2,0 // vbroadcastss 0x272d8(%rip),%ymm8 # 325c8 <_sk_srcover_rgba_8888_sse2_lowp+0x3a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 196,98,125,24,21,143,120,2,0 // vbroadcastss 0x2788f(%rip),%ymm10 # 32b9c <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 196,98,125,24,21,195,114,2,0 // vbroadcastss 0x272c3(%rip),%ymm10 # 325cc <_sk_srcover_rgba_8888_sse2_lowp+0x3a4>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
@@ -20349,7 +20347,7 @@ _sk_store_565_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b34b <_sk_store_565_hsw+0x76>
+ .byte 117,10 // jne b347 <_sk_store_565_hsw+0x76>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20357,22 +20355,22 @@ _sk_store_565_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja b347 <_sk_store_565_hsw+0x72>
+ .byte 119,236 // ja b343 <_sk_store_565_hsw+0x72>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b3a8 <_sk_store_565_hsw+0xd3>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b3a4 <_sk_store_565_hsw+0xd3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp b347 <_sk_store_565_hsw+0x72>
+ .byte 235,207 // jmp b343 <_sk_store_565_hsw+0x72>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp b347 <_sk_store_565_hsw+0x72>
+ .byte 235,191 // jmp b343 <_sk_store_565_hsw+0x72>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp b347 <_sk_store_565_hsw+0x72>
+ .byte 235,159 // jmp b343 <_sk_store_565_hsw+0x72>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20390,7 +20388,7 @@ _sk_store_565_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100b3c0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd9194>
+ .byte 232,255,255,255,224 // callq ffffffffe100b3bc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd9194>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20407,28 +20405,28 @@ _sk_load_4444_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne b46d <_sk_load_4444_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne b469 <_sk_load_4444_hsw+0xa9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,169,119,2,0 // vpbroadcastd 0x277a9(%rip),%ymm0 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,226,125,88,5,221,113,2,0 // vpbroadcastd 0x271dd(%rip),%ymm0 # 325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,156,119,2,0 // vbroadcastss 0x2779c(%rip),%ymm1 # 32ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,226,125,24,13,208,113,2,0 // vbroadcastss 0x271d0(%rip),%ymm1 # 325d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,147,119,2,0 // vpbroadcastd 0x27793(%rip),%ymm1 # 32ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,88,13,199,113,2,0 // vpbroadcastd 0x271c7(%rip),%ymm1 # 325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,134,119,2,0 // vbroadcastss 0x27786(%rip),%ymm2 # 32bac <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,21,186,113,2,0 // vbroadcastss 0x271ba(%rip),%ymm2 # 325dc <_sk_srcover_rgba_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,125,119,2,0 // vpbroadcastd 0x2777d(%rip),%ymm2 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,88,21,177,113,2,0 // vpbroadcastd 0x271b1(%rip),%ymm2 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,112,119,2,0 // vbroadcastss 0x27770(%rip),%ymm8 # 32bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,98,125,24,5,164,113,2,0 // vbroadcastss 0x271a4(%rip),%ymm8 # 325e4 <_sk_srcover_rgba_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,102,119,2,0 // vpbroadcastd 0x27766(%rip),%ymm8 # 32bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,88,5,154,113,2,0 // vpbroadcastd 0x2719a(%rip),%ymm8 # 325e8 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,88,119,2,0 // vbroadcastss 0x27758(%rip),%ymm8 # 32bbc <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,140,113,2,0 // vbroadcastss 0x2718c(%rip),%ymm8 # 325ec <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20437,27 +20435,27 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja b3e9 <_sk_load_4444_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja b3e5 <_sk_load_4444_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b4f4 <_sk_load_4444_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b4f0 <_sk_load_4444_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,66,255,255,255 // jmpq b3e9 <_sk_load_4444_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq b3e5 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,37,255,255,255 // jmpq b3e9 <_sk_load_4444_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq b3e5 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,248,254,255,255 // jmpq b3e9 <_sk_load_4444_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq b3e5 <_sk_load_4444_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20493,28 +20491,28 @@ _sk_load_4444_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne b5b9 <_sk_load_4444_dst_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne b5b5 <_sk_load_4444_dst_hsw+0xa9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,93,118,2,0 // vpbroadcastd 0x2765d(%rip),%ymm4 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,226,125,88,37,145,112,2,0 // vpbroadcastd 0x27091(%rip),%ymm4 # 325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a8>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,80,118,2,0 // vbroadcastss 0x27650(%rip),%ymm5 # 32ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,226,125,24,45,132,112,2,0 // vbroadcastss 0x27084(%rip),%ymm5 # 325d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,71,118,2,0 // vpbroadcastd 0x27647(%rip),%ymm5 # 32ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,88,45,123,112,2,0 // vpbroadcastd 0x2707b(%rip),%ymm5 # 325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3b0>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,58,118,2,0 // vbroadcastss 0x2763a(%rip),%ymm6 # 32bac <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,53,110,112,2,0 // vbroadcastss 0x2706e(%rip),%ymm6 # 325dc <_sk_srcover_rgba_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,49,118,2,0 // vpbroadcastd 0x27631(%rip),%ymm6 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,88,53,101,112,2,0 // vpbroadcastd 0x27065(%rip),%ymm6 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3b8>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,36,118,2,0 // vbroadcastss 0x27624(%rip),%ymm8 # 32bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,98,125,24,5,88,112,2,0 // vbroadcastss 0x27058(%rip),%ymm8 # 325e4 <_sk_srcover_rgba_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,26,118,2,0 // vpbroadcastd 0x2761a(%rip),%ymm8 # 32bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,88,5,78,112,2,0 // vpbroadcastd 0x2704e(%rip),%ymm8 # 325e8 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,12,118,2,0 // vbroadcastss 0x2760c(%rip),%ymm8 # 32bbc <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,64,112,2,0 // vbroadcastss 0x27040(%rip),%ymm8 # 325ec <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20523,27 +20521,27 @@ _sk_load_4444_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja b535 <_sk_load_4444_dst_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja b531 <_sk_load_4444_dst_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b640 <_sk_load_4444_dst_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b63c <_sk_load_4444_dst_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,66,255,255,255 // jmpq b535 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq b531 <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,37,255,255,255 // jmpq b535 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq b531 <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,248,254,255,255 // jmpq b535 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq b531 <_sk_load_4444_dst_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20622,25 +20620,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,92,116,2,0 // vpbroadcastd 0x2745c(%rip),%ymm0 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,226,125,88,5,144,110,2,0 // vpbroadcastd 0x26e90(%rip),%ymm0 # 325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a8>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,79,116,2,0 // vbroadcastss 0x2744f(%rip),%ymm1 # 32ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,226,125,24,13,131,110,2,0 // vbroadcastss 0x26e83(%rip),%ymm1 # 325d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,70,116,2,0 // vpbroadcastd 0x27446(%rip),%ymm1 # 32ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,88,13,122,110,2,0 // vpbroadcastd 0x26e7a(%rip),%ymm1 # 325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3b0>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,57,116,2,0 // vbroadcastss 0x27439(%rip),%ymm2 # 32bac <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,21,109,110,2,0 // vbroadcastss 0x26e6d(%rip),%ymm2 # 325dc <_sk_srcover_rgba_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,48,116,2,0 // vpbroadcastd 0x27430(%rip),%ymm2 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,88,21,100,110,2,0 // vpbroadcastd 0x26e64(%rip),%ymm2 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3b8>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,35,116,2,0 // vbroadcastss 0x27423(%rip),%ymm8 # 32bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,98,125,24,5,87,110,2,0 // vbroadcastss 0x26e57(%rip),%ymm8 # 325e4 <_sk_srcover_rgba_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,25,116,2,0 // vpbroadcastd 0x27419(%rip),%ymm8 # 32bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,88,5,77,110,2,0 // vpbroadcastd 0x26e4d(%rip),%ymm8 # 325e8 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,11,116,2,0 // vbroadcastss 0x2740b(%rip),%ymm8 # 32bbc <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,63,110,2,0 // vbroadcastss 0x26e3f(%rip),%ymm8 # 325ec <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20660,7 +20658,7 @@ _sk_store_4444_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,224,115,2,0 // vbroadcastss 0x273e0(%rip),%ymm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,20,110,2,0 // vbroadcastss 0x26e14(%rip),%ymm8 # 325f0 <_sk_srcover_rgba_8888_sse2_lowp+0x3c8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -20678,7 +20676,7 @@ _sk_store_4444_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b843 <_sk_store_4444_hsw+0x82>
+ .byte 117,10 // jne b83f <_sk_store_4444_hsw+0x82>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20686,22 +20684,22 @@ _sk_store_4444_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja b83f <_sk_store_4444_hsw+0x7e>
+ .byte 119,236 // ja b83b <_sk_store_4444_hsw+0x7e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b8a0 <_sk_store_4444_hsw+0xdf>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b89c <_sk_store_4444_hsw+0xdf>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp b83f <_sk_store_4444_hsw+0x7e>
+ .byte 235,207 // jmp b83b <_sk_store_4444_hsw+0x7e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp b83f <_sk_store_4444_hsw+0x7e>
+ .byte 235,191 // jmp b83b <_sk_store_4444_hsw+0x7e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp b83f <_sk_store_4444_hsw+0x7e>
+ .byte 235,159 // jmp b83b <_sk_store_4444_hsw+0x7e>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20719,7 +20717,7 @@ _sk_store_4444_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100b8b8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd968c>
+ .byte 232,255,255,255,224 // callq ffffffffe100b8b4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd968c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20736,16 +20734,16 @@ _sk_load_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne b92e <_sk_load_8888_hsw+0x72>
+ .byte 117,86 // jne b92a <_sk_load_8888_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,58,109,2,0 // vpand 0x26d3a(%rip),%ymm3,%ymm0 # 32620 <_sk_srcover_rgba_8888_sse2_lowp+0x3f4>
+ .byte 197,229,219,5,158,110,2,0 // vpand 0x26e9e(%rip),%ymm3,%ymm0 # 32780 <_sk_srcover_rgba_8888_sse2_lowp+0x558>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,45,114,2,0 // vbroadcastss 0x2722d(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,97,108,2,0 // vbroadcastss 0x26c61(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,63,109,2,0 // vpshufb 0x26d3f(%rip),%ymm3,%ymm1 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x414>
+ .byte 196,226,101,0,13,163,110,2,0 // vpshufb 0x26ea3(%rip),%ymm3,%ymm1 # 327a0 <_sk_srcover_rgba_8888_sse2_lowp+0x578>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,77,109,2,0 // vpshufb 0x26d4d(%rip),%ymm3,%ymm2 # 32660 <_sk_srcover_rgba_8888_sse2_lowp+0x434>
+ .byte 196,226,101,0,21,177,110,2,0 // vpshufb 0x26eb1(%rip),%ymm3,%ymm2 # 327c0 <_sk_srcover_rgba_8888_sse2_lowp+0x598>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -20758,21 +20756,21 @@ _sk_load_8888_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja b8de <_sk_load_8888_hsw+0x22>
+ .byte 119,156 // ja b8da <_sk_load_8888_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # b9d4 <_sk_load_8888_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # b9d0 <_sk_load_8888_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp b8de <_sk_load_8888_hsw+0x22>
+ .byte 235,128 // jmp b8da <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq b8de <_sk_load_8888_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq b8da <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -20785,7 +20783,7 @@ _sk_load_8888_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq b8de <_sk_load_8888_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq b8da <_sk_load_8888_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20819,16 +20817,16 @@ _sk_load_8888_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne ba62 <_sk_load_8888_dst_hsw+0x72>
+ .byte 117,86 // jne ba5e <_sk_load_8888_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,102,108,2,0 // vpand 0x26c66(%rip),%ymm7,%ymm4 # 32680 <_sk_srcover_rgba_8888_sse2_lowp+0x454>
+ .byte 197,197,219,37,202,109,2,0 // vpand 0x26dca(%rip),%ymm7,%ymm4 # 327e0 <_sk_srcover_rgba_8888_sse2_lowp+0x5b8>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,249,112,2,0 // vbroadcastss 0x270f9(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,45,107,2,0 // vbroadcastss 0x26b2d(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,107,108,2,0 // vpshufb 0x26c6b(%rip),%ymm7,%ymm5 # 326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x474>
+ .byte 196,226,69,0,45,207,109,2,0 // vpshufb 0x26dcf(%rip),%ymm7,%ymm5 # 32800 <_sk_srcover_rgba_8888_sse2_lowp+0x5d8>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,121,108,2,0 // vpshufb 0x26c79(%rip),%ymm7,%ymm6 # 326c0 <_sk_srcover_rgba_8888_sse2_lowp+0x494>
+ .byte 196,226,69,0,53,221,109,2,0 // vpshufb 0x26ddd(%rip),%ymm7,%ymm6 # 32820 <_sk_srcover_rgba_8888_sse2_lowp+0x5f8>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -20841,21 +20839,21 @@ _sk_load_8888_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja ba12 <_sk_load_8888_dst_hsw+0x22>
+ .byte 119,156 // ja ba0e <_sk_load_8888_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bb08 <_sk_load_8888_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bb04 <_sk_load_8888_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp ba12 <_sk_load_8888_dst_hsw+0x22>
+ .byte 235,128 // jmp ba0e <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq ba12 <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq ba0e <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -20868,7 +20866,7 @@ _sk_load_8888_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq ba12 <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq ba0e <_sk_load_8888_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20912,14 +20910,14 @@ _sk_gather_8888_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,101,107,2,0 // vpand 0x26b65(%rip),%ymm8,%ymm0 # 326e0 <_sk_srcover_rgba_8888_sse2_lowp+0x4b4>
+ .byte 197,189,219,5,201,108,2,0 // vpand 0x26cc9(%rip),%ymm8,%ymm0 # 32840 <_sk_srcover_rgba_8888_sse2_lowp+0x618>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,152,111,2,0 // vbroadcastss 0x26f98(%rip),%ymm3 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,29,204,105,2,0 // vbroadcastss 0x269cc(%rip),%ymm3 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,61,0,13,107,107,2,0 // vpshufb 0x26b6b(%rip),%ymm8,%ymm1 # 32700 <_sk_srcover_rgba_8888_sse2_lowp+0x4d4>
+ .byte 196,226,61,0,13,207,108,2,0 // vpshufb 0x26ccf(%rip),%ymm8,%ymm1 # 32860 <_sk_srcover_rgba_8888_sse2_lowp+0x638>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,61,0,21,122,107,2,0 // vpshufb 0x26b7a(%rip),%ymm8,%ymm2 # 32720 <_sk_srcover_rgba_8888_sse2_lowp+0x4f4>
+ .byte 196,226,61,0,21,222,108,2,0 // vpshufb 0x26cde(%rip),%ymm8,%ymm2 # 32880 <_sk_srcover_rgba_8888_sse2_lowp+0x658>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -20939,7 +20937,7 @@ _sk_store_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,243,110,2,0 // vbroadcastss 0x26ef3(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,39,105,2,0 // vbroadcastss 0x26927(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -20955,7 +20953,7 @@ _sk_store_8888_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne bc39 <_sk_store_8888_hsw+0x78>
+ .byte 117,10 // jne bc35 <_sk_store_8888_hsw+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20963,17 +20961,17 @@ _sk_store_8888_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja bc35 <_sk_store_8888_hsw+0x74>
+ .byte 119,236 // ja bc31 <_sk_store_8888_hsw+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # bca8 <_sk_store_8888_hsw+0xe7>
+ .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # bca4 <_sk_store_8888_hsw+0xe7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp bc35 <_sk_store_8888_hsw+0x74>
+ .byte 235,208 // jmp bc31 <_sk_store_8888_hsw+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp bc35 <_sk_store_8888_hsw+0x74>
+ .byte 235,192 // jmp bc31 <_sk_store_8888_hsw+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -20981,7 +20979,7 @@ _sk_store_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp bc35 <_sk_store_8888_hsw+0x74>
+ .byte 235,143 // jmp bc31 <_sk_store_8888_hsw+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -20993,7 +20991,7 @@ _sk_store_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00bcbc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9a90>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00bcb8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9a90>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -21013,16 +21011,16 @@ _sk_load_bgra_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne bd36 <_sk_load_bgra_hsw+0x72>
+ .byte 117,86 // jne bd32 <_sk_load_bgra_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,82,106,2,0 // vpand 0x26a52(%rip),%ymm3,%ymm0 # 32740 <_sk_srcover_rgba_8888_sse2_lowp+0x514>
+ .byte 197,229,219,5,182,107,2,0 // vpand 0x26bb6(%rip),%ymm3,%ymm0 # 328a0 <_sk_srcover_rgba_8888_sse2_lowp+0x678>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,37,110,2,0 // vbroadcastss 0x26e25(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,89,104,2,0 // vbroadcastss 0x26859(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,87,106,2,0 // vpshufb 0x26a57(%rip),%ymm3,%ymm0 # 32760 <_sk_srcover_rgba_8888_sse2_lowp+0x534>
+ .byte 196,226,101,0,5,187,107,2,0 // vpshufb 0x26bbb(%rip),%ymm3,%ymm0 # 328c0 <_sk_srcover_rgba_8888_sse2_lowp+0x698>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,101,106,2,0 // vpshufb 0x26a65(%rip),%ymm3,%ymm0 # 32780 <_sk_srcover_rgba_8888_sse2_lowp+0x554>
+ .byte 196,226,101,0,5,201,107,2,0 // vpshufb 0x26bc9(%rip),%ymm3,%ymm0 # 328e0 <_sk_srcover_rgba_8888_sse2_lowp+0x6b8>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -21035,21 +21033,21 @@ _sk_load_bgra_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja bce6 <_sk_load_bgra_hsw+0x22>
+ .byte 119,156 // ja bce2 <_sk_load_bgra_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bddc <_sk_load_bgra_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bdd8 <_sk_load_bgra_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp bce6 <_sk_load_bgra_hsw+0x22>
+ .byte 235,128 // jmp bce2 <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq bce6 <_sk_load_bgra_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq bce2 <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -21062,7 +21060,7 @@ _sk_load_bgra_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq bce6 <_sk_load_bgra_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq bce2 <_sk_load_bgra_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -21096,16 +21094,16 @@ _sk_load_bgra_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne be6a <_sk_load_bgra_dst_hsw+0x72>
+ .byte 117,86 // jne be66 <_sk_load_bgra_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,126,105,2,0 // vpand 0x2697e(%rip),%ymm7,%ymm4 # 327a0 <_sk_srcover_rgba_8888_sse2_lowp+0x574>
+ .byte 197,197,219,37,226,106,2,0 // vpand 0x26ae2(%rip),%ymm7,%ymm4 # 32900 <_sk_srcover_rgba_8888_sse2_lowp+0x6d8>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,241,108,2,0 // vbroadcastss 0x26cf1(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,37,103,2,0 // vbroadcastss 0x26725(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,131,105,2,0 // vpshufb 0x26983(%rip),%ymm7,%ymm4 # 327c0 <_sk_srcover_rgba_8888_sse2_lowp+0x594>
+ .byte 196,226,69,0,37,231,106,2,0 // vpshufb 0x26ae7(%rip),%ymm7,%ymm4 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x6f8>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,145,105,2,0 // vpshufb 0x26991(%rip),%ymm7,%ymm4 # 327e0 <_sk_srcover_rgba_8888_sse2_lowp+0x5b4>
+ .byte 196,226,69,0,37,245,106,2,0 // vpshufb 0x26af5(%rip),%ymm7,%ymm4 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x718>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -21118,21 +21116,21 @@ _sk_load_bgra_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja be1a <_sk_load_bgra_dst_hsw+0x22>
+ .byte 119,156 // ja be16 <_sk_load_bgra_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bf10 <_sk_load_bgra_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bf0c <_sk_load_bgra_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp be1a <_sk_load_bgra_dst_hsw+0x22>
+ .byte 235,128 // jmp be16 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq be1a <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq be16 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -21145,7 +21143,7 @@ _sk_load_bgra_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq be1a <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq be16 <_sk_load_bgra_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -21189,14 +21187,14 @@ _sk_gather_bgra_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,125,104,2,0 // vpand 0x2687d(%rip),%ymm8,%ymm0 # 32800 <_sk_srcover_rgba_8888_sse2_lowp+0x5d4>
+ .byte 197,189,219,5,225,105,2,0 // vpand 0x269e1(%rip),%ymm8,%ymm0 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x738>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,144,107,2,0 // vbroadcastss 0x26b90(%rip),%ymm3 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,29,196,101,2,0 // vbroadcastss 0x265c4(%rip),%ymm3 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,226,61,0,5,131,104,2,0 // vpshufb 0x26883(%rip),%ymm8,%ymm0 # 32820 <_sk_srcover_rgba_8888_sse2_lowp+0x5f4>
+ .byte 196,226,61,0,5,231,105,2,0 // vpshufb 0x269e7(%rip),%ymm8,%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x758>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,226,61,0,5,146,104,2,0 // vpshufb 0x26892(%rip),%ymm8,%ymm0 # 32840 <_sk_srcover_rgba_8888_sse2_lowp+0x614>
+ .byte 196,226,61,0,5,246,105,2,0 // vpshufb 0x269f6(%rip),%ymm8,%ymm0 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x778>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -21216,7 +21214,7 @@ _sk_store_bgra_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,235,106,2,0 // vbroadcastss 0x26aeb(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,31,101,2,0 // vbroadcastss 0x2651f(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -21232,7 +21230,7 @@ _sk_store_bgra_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c041 <_sk_store_bgra_hsw+0x78>
+ .byte 117,10 // jne c03d <_sk_store_bgra_hsw+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21240,17 +21238,17 @@ _sk_store_bgra_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c03d <_sk_store_bgra_hsw+0x74>
+ .byte 119,236 // ja c039 <_sk_store_bgra_hsw+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c0b0 <_sk_store_bgra_hsw+0xe7>
+ .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c0ac <_sk_store_bgra_hsw+0xe7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp c03d <_sk_store_bgra_hsw+0x74>
+ .byte 235,208 // jmp c039 <_sk_store_bgra_hsw+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp c03d <_sk_store_bgra_hsw+0x74>
+ .byte 235,192 // jmp c039 <_sk_store_bgra_hsw+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -21258,7 +21256,7 @@ _sk_store_bgra_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp c03d <_sk_store_bgra_hsw+0x74>
+ .byte 235,143 // jmp c039 <_sk_store_bgra_hsw+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -21270,7 +21268,7 @@ _sk_store_bgra_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00c0c4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9e98>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00c0c0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9e98>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -21290,7 +21288,7 @@ _sk_load_f16_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne c14d <_sk_load_f16_hsw+0x81>
+ .byte 117,101 // jne c149 <_sk_load_f16_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -21316,29 +21314,29 @@ _sk_load_f16_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c1b3 <_sk_load_f16_hsw+0xe7>
+ .byte 116,85 // je c1af <_sk_load_f16_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c1b3 <_sk_load_f16_hsw+0xe7>
+ .byte 114,72 // jb c1af <_sk_load_f16_hsw+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c1c0 <_sk_load_f16_hsw+0xf4>
+ .byte 116,72 // je c1bc <_sk_load_f16_hsw+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c1c0 <_sk_load_f16_hsw+0xf4>
+ .byte 114,59 // jb c1bc <_sk_load_f16_hsw+0xf4>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je c103 <_sk_load_f16_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je c0ff <_sk_load_f16_hsw+0x37>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb c103 <_sk_load_f16_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb c0ff <_sk_load_f16_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq c103 <_sk_load_f16_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq c0ff <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq c103 <_sk_load_f16_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq c0ff <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq c103 <_sk_load_f16_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq c0ff <_sk_load_f16_hsw+0x37>
HIDDEN _sk_load_f16_dst_hsw
.globl _sk_load_f16_dst_hsw
@@ -21352,7 +21350,7 @@ _sk_load_f16_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne c24a <_sk_load_f16_dst_hsw+0x81>
+ .byte 117,101 // jne c246 <_sk_load_f16_dst_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -21378,29 +21376,29 @@ _sk_load_f16_dst_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c2b0 <_sk_load_f16_dst_hsw+0xe7>
+ .byte 116,85 // je c2ac <_sk_load_f16_dst_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c2b0 <_sk_load_f16_dst_hsw+0xe7>
+ .byte 114,72 // jb c2ac <_sk_load_f16_dst_hsw+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c2bd <_sk_load_f16_dst_hsw+0xf4>
+ .byte 116,72 // je c2b9 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c2bd <_sk_load_f16_dst_hsw+0xf4>
+ .byte 114,59 // jb c2b9 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je c200 <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je c1fc <_sk_load_f16_dst_hsw+0x37>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb c200 <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb c1fc <_sk_load_f16_dst_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq c200 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq c1fc <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq c200 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq c1fc <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq c200 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq c1fc <_sk_load_f16_dst_hsw+0x37>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -21473,7 +21471,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne c3fa <_sk_store_f16_hsw+0x7b>
+ .byte 117,31 // jne c3f6 <_sk_store_f16_hsw+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -21482,22 +21480,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je c3f6 <_sk_store_f16_hsw+0x77>
+ .byte 116,240 // je c3f2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb c3f6 <_sk_store_f16_hsw+0x77>
+ .byte 114,227 // jb c3f2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je c3f6 <_sk_store_f16_hsw+0x77>
+ .byte 116,218 // je c3f2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb c3f6 <_sk_store_f16_hsw+0x77>
+ .byte 114,205 // jb c3f2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je c3f6 <_sk_store_f16_hsw+0x77>
+ .byte 116,196 // je c3f2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb c3f6 <_sk_store_f16_hsw+0x77>
+ .byte 114,183 // jb c3f2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp c3f6 <_sk_store_f16_hsw+0x77>
+ .byte 235,174 // jmp c3f2 <_sk_store_f16_hsw+0x77>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -21512,7 +21510,7 @@ _sk_load_u16_be_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne c53b <_sk_load_u16_be_hsw+0xf3>
+ .byte 15,133,204,0,0,0 // jne c537 <_sk_load_u16_be_hsw+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -21531,7 +21529,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,108,102,2,0 // vbroadcastss 0x2666c(%rip),%ymm10 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,21,160,96,2,0 // vbroadcastss 0x260a0(%rip),%ymm10 # 3256c <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -21559,29 +21557,29 @@ _sk_load_u16_be_hsw:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c5a1 <_sk_load_u16_be_hsw+0x159>
+ .byte 116,85 // je c59d <_sk_load_u16_be_hsw+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c5a1 <_sk_load_u16_be_hsw+0x159>
+ .byte 114,72 // jb c59d <_sk_load_u16_be_hsw+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c5ae <_sk_load_u16_be_hsw+0x166>
+ .byte 116,72 // je c5aa <_sk_load_u16_be_hsw+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c5ae <_sk_load_u16_be_hsw+0x166>
+ .byte 114,59 // jb c5aa <_sk_load_u16_be_hsw+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je c48a <_sk_load_u16_be_hsw+0x42>
+ .byte 15,132,6,255,255,255 // je c486 <_sk_load_u16_be_hsw+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb c48a <_sk_load_u16_be_hsw+0x42>
+ .byte 15,130,245,254,255,255 // jb c486 <_sk_load_u16_be_hsw+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq c48a <_sk_load_u16_be_hsw+0x42>
+ .byte 233,233,254,255,255 // jmpq c486 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq c48a <_sk_load_u16_be_hsw+0x42>
+ .byte 233,220,254,255,255 // jmpq c486 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq c48a <_sk_load_u16_be_hsw+0x42>
+ .byte 233,211,254,255,255 // jmpq c486 <_sk_load_u16_be_hsw+0x42>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -21598,7 +21596,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,205,0,0,0 // jne c6af <_sk_load_rgb_u16_be_hsw+0xf8>
+ .byte 15,133,205,0,0,0 // jne c6ab <_sk_load_rgb_u16_be_hsw+0xf8>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -21623,7 +21621,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,219,100,2,0 // vbroadcastss 0x264db(%rip),%ymm9 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,13,15,95,2,0 // vbroadcastss 0x25f0f(%rip),%ymm9 # 3256c <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -21639,69 +21637,69 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,251,99,2,0 // vbroadcastss 0x263fb(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,47,94,2,0 // vbroadcastss 0x25e2f(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne c6e7 <_sk_load_rgb_u16_be_hsw+0x130>
+ .byte 117,31 // jne c6e3 <_sk_load_rgb_u16_be_hsw+0x130>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq c617 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,48,255,255,255 // jmpq c613 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb c731 <_sk_load_rgb_u16_be_hsw+0x17a>
+ .byte 114,48 // jb c72d <_sk_load_rgb_u16_be_hsw+0x17a>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne c74b <_sk_load_rgb_u16_be_hsw+0x194>
+ .byte 117,48 // jne c747 <_sk_load_rgb_u16_be_hsw+0x194>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq c617 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,230,254,255,255 // jmpq c613 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq c617 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,204,254,255,255 // jmpq c613 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb c78c <_sk_load_rgb_u16_be_hsw+0x1d5>
+ .byte 114,39 // jb c788 <_sk_load_rgb_u16_be_hsw+0x1d5>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne c79d <_sk_load_rgb_u16_be_hsw+0x1e6>
+ .byte 117,30 // jne c799 <_sk_load_rgb_u16_be_hsw+0x1e6>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq c617 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,139,254,255,255 // jmpq c613 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq c617 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,122,254,255,255 // jmpq c613 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb c7d0 <_sk_load_rgb_u16_be_hsw+0x219>
+ .byte 114,25 // jb c7cc <_sk_load_rgb_u16_be_hsw+0x219>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq c617 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,71,254,255,255 // jmpq c613 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq c617 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,62,254,255,255 // jmpq c613 <_sk_load_rgb_u16_be_hsw+0x60>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -21715,7 +21713,7 @@ _sk_store_u16_be_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,196,99,2,0 // vbroadcastss 0x263c4(%rip),%ymm8 # 32bc4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,248,93,2,0 // vbroadcastss 0x25df8(%rip),%ymm8 # 325f4 <_sk_srcover_rgba_8888_sse2_lowp+0x3cc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -21753,7 +21751,7 @@ _sk_store_u16_be_hsw:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne c8e4 <_sk_store_u16_be_hsw+0x10b>
+ .byte 117,31 // jne c8e0 <_sk_store_u16_be_hsw+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -21762,22 +21760,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je c8e0 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,240 // je c8dc <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb c8e0 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,227 // jb c8dc <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je c8e0 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,218 // je c8dc <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb c8e0 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,205 // jb c8dc <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je c8e0 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,196 // je c8dc <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb c8e0 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,183 // jb c8dc <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp c8e0 <_sk_store_u16_be_hsw+0x107>
+ .byte 235,174 // jmp c8dc <_sk_store_u16_be_hsw+0x107>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -21786,7 +21784,7 @@ _sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja caa3 <_sk_load_f32_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja ca9f <_sk_load_f32_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -21799,7 +21797,7 @@ _sk_load_f32_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # cab4 <_sk_load_f32_hsw+0x182>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # cab0 <_sk_load_f32_hsw+0x182>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -21862,7 +21860,7 @@ _sk_load_f32_hsw:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp ca7d <_sk_load_f32_hsw+0x14b>
+ .byte 235,203 // jmp ca79 <_sk_load_f32_hsw+0x14b>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -21874,7 +21872,7 @@ _sk_load_f32_hsw:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900cad0 <_sk_srcover_rgba_8888_sse2_lowp+0x28fda8a4>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900cacc <_sk_srcover_rgba_8888_sse2_lowp+0x28fda8a4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -21886,7 +21884,7 @@ _sk_load_f32_dst_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja cc45 <_sk_load_f32_dst_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja cc41 <_sk_load_f32_dst_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -21899,7 +21897,7 @@ _sk_load_f32_dst_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # cc54 <_sk_load_f32_dst_hsw+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # cc50 <_sk_load_f32_dst_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -21962,7 +21960,7 @@ _sk_load_f32_dst_hsw:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp cc1f <_sk_load_f32_dst_hsw+0x14b>
+ .byte 235,203 // jmp cc1b <_sk_load_f32_dst_hsw+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -22002,7 +22000,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne ccf3 <_sk_store_f32_hsw+0x7f>
+ .byte 117,55 // jne ccef <_sk_store_f32_hsw+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -22015,22 +22013,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je ccef <_sk_store_f32_hsw+0x7b>
+ .byte 116,240 // je cceb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb ccef <_sk_store_f32_hsw+0x7b>
+ .byte 114,227 // jb cceb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je ccef <_sk_store_f32_hsw+0x7b>
+ .byte 116,218 // je cceb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb ccef <_sk_store_f32_hsw+0x7b>
+ .byte 114,205 // jb cceb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je ccef <_sk_store_f32_hsw+0x7b>
+ .byte 116,195 // je cceb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb ccef <_sk_store_f32_hsw+0x7b>
+ .byte 114,181 // jb cceb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp ccef <_sk_store_f32_hsw+0x7b>
+ .byte 235,171 // jmp cceb <_sk_store_f32_hsw+0x7b>
HIDDEN _sk_repeat_x_hsw
.globl _sk_repeat_x_hsw
@@ -22069,7 +22067,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,249,92,2,0 // vmulss 0x25cf9(%rip),%xmm9,%xmm0 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 197,178,89,5,45,87,2,0 // vmulss 0x2572d(%rip),%xmm9,%xmm0 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -22092,7 +22090,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,168,92,2,0 // vmulss 0x25ca8(%rip),%xmm9,%xmm1 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 197,178,89,13,220,86,2,0 // vmulss 0x256dc(%rip),%xmm9,%xmm1 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -22110,7 +22108,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,112,92,2,0 // vbroadcastss 0x25c70(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,164,86,2,0 // vbroadcastss 0x256a4(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22123,7 +22121,7 @@ _sk_repeat_x_1_hsw:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,74,92,2,0 // vbroadcastss 0x25c4a(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,126,86,2,0 // vbroadcastss 0x2567e(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22132,9 +22130,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,80,92,2,0 // vbroadcastss 0x25c50(%rip),%ymm8 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,5,132,86,2,0 // vbroadcastss 0x25684(%rip),%ymm8 # 324f0 <_sk_srcover_rgba_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,38,92,2,0 // vbroadcastss 0x25c26(%rip),%ymm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,13,90,86,2,0 // vbroadcastss 0x2565a(%rip),%ymm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -22144,7 +22142,7 @@ _sk_mirror_x_1_hsw:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,246,91,2,0 // vbroadcastss 0x25bf6(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,42,86,2,0 // vbroadcastss 0x2562a(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22153,11 +22151,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,8,93,2,0 // vbroadcastss 0x25d08(%rip),%ymm3 # 32bcc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
- .byte 196,98,125,24,5,251,92,2,0 // vbroadcastss 0x25cfb(%rip),%ymm8 # 32bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,226,125,24,29,60,87,2,0 // vbroadcastss 0x2573c(%rip),%ymm3 # 325fc <_sk_srcover_rgba_8888_sse2_lowp+0x3d4>
+ .byte 196,98,125,24,5,47,87,2,0 // vbroadcastss 0x2572f(%rip),%ymm8 # 325f8 <_sk_srcover_rgba_8888_sse2_lowp+0x3d0>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,240,92,2,0 // vbroadcastss 0x25cf0(%rip),%ymm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,29,36,87,2,0 // vbroadcastss 0x25724(%rip),%ymm3 # 32600 <_sk_srcover_rgba_8888_sse2_lowp+0x3d8>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -22356,9 +22354,9 @@ _sk_evenly_spaced_gradient_hsw:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 77,137,202 // mov %r9,%r10
.byte 73,255,202 // dec %r10
- .byte 120,7 // js d1d8 <_sk_evenly_spaced_gradient_hsw+0x18>
+ .byte 120,7 // js d1d4 <_sk_evenly_spaced_gradient_hsw+0x18>
.byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 235,22 // jmp d1ee <_sk_evenly_spaced_gradient_hsw+0x2e>
+ .byte 235,22 // jmp d1ea <_sk_evenly_spaced_gradient_hsw+0x2e>
.byte 77,137,211 // mov %r10,%r11
.byte 73,209,235 // shr %r11
.byte 65,131,226,1 // and $0x1,%r10d
@@ -22369,7 +22367,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja d24a <_sk_evenly_spaced_gradient_hsw+0x8a>
+ .byte 119,73 // ja d246 <_sk_evenly_spaced_gradient_hsw+0x8a>
.byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9
@@ -22385,7 +22383,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10
- .byte 233,147,0,0,0 // jmpq d2dd <_sk_evenly_spaced_gradient_hsw+0x11d>
+ .byte 233,147,0,0,0 // jmpq d2d9 <_sk_evenly_spaced_gradient_hsw+0x11d>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -22429,14 +22427,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,214,88,2,0 // vbroadcastss 0x258d6(%rip),%ymm0 # 32bd8 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
- .byte 196,226,125,24,13,201,88,2,0 // vbroadcastss 0x258c9(%rip),%ymm1 # 32bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,226,125,24,5,10,83,2,0 // vbroadcastss 0x2530a(%rip),%ymm0 # 32608 <_sk_srcover_rgba_8888_sse2_lowp+0x3e0>
+ .byte 196,226,125,24,13,253,82,2,0 // vbroadcastss 0x252fd(%rip),%ymm1 # 32604 <_sk_srcover_rgba_8888_sse2_lowp+0x3dc>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,195,88,2,0 // vbroadcastss 0x258c3(%rip),%ymm0 # 32bdc <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,226,125,24,5,247,82,2,0 // vbroadcastss 0x252f7(%rip),%ymm0 # 3260c <_sk_srcover_rgba_8888_sse2_lowp+0x3e4>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,185,88,2,0 // vbroadcastss 0x258b9(%rip),%ymm1 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,226,125,24,13,237,82,2,0 // vbroadcastss 0x252ed(%rip),%ymm1 # 32610 <_sk_srcover_rgba_8888_sse2_lowp+0x3e8>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,175,88,2,0 // vbroadcastss 0x258af(%rip),%ymm0 # 32be4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,226,125,24,5,227,82,2,0 // vbroadcastss 0x252e3(%rip),%ymm0 # 32614 <_sk_srcover_rgba_8888_sse2_lowp+0x3ec>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -22451,11 +22449,11 @@ _sk_gradient_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,220,0,0,0 // jbe d435 <_sk_gradient_hsw+0xeb>
+ .byte 15,134,220,0,0,0 // jbe d431 <_sk_gradient_hsw+0xeb>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,60,87,2,0 // vbroadcastss 0x2573c(%rip),%ymm2 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,226,125,24,21,112,81,2,0 // vbroadcastss 0x25170(%rip),%ymm2 # 324dc <_sk_srcover_rgba_8888_sse2_lowp+0x2b4>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -22463,10 +22461,10 @@ _sk_gradient_hsw:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,227 // jne d375 <_sk_gradient_hsw+0x2b>
+ .byte 117,227 // jne d371 <_sk_gradient_hsw+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe d43e <_sk_gradient_hsw+0xf4>
+ .byte 15,134,158,0,0,0 // jbe d43a <_sk_gradient_hsw+0xf4>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -22498,7 +22496,7 @@ _sk_gradient_hsw:
.byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- .byte 235,77 // jmp d482 <_sk_gradient_hsw+0x138>
+ .byte 235,77 // jmp d47e <_sk_gradient_hsw+0x138>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -22558,24 +22556,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,203,86,2,0 // vbroadcastss 0x256cb(%rip),%ymm13 # 32be8 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
- .byte 196,98,125,24,53,198,86,2,0 // vbroadcastss 0x256c6(%rip),%ymm14 # 32bec <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,98,125,24,45,255,80,2,0 // vbroadcastss 0x250ff(%rip),%ymm13 # 32618 <_sk_srcover_rgba_8888_sse2_lowp+0x3f0>
+ .byte 196,98,125,24,53,250,80,2,0 // vbroadcastss 0x250fa(%rip),%ymm14 # 3261c <_sk_srcover_rgba_8888_sse2_lowp+0x3f4>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,188,86,2,0 // vbroadcastss 0x256bc(%rip),%ymm13 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 196,98,125,24,45,240,80,2,0 // vbroadcastss 0x250f0(%rip),%ymm13 # 32620 <_sk_srcover_rgba_8888_sse2_lowp+0x3f8>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,178,86,2,0 // vbroadcastss 0x256b2(%rip),%ymm14 # 32bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 196,98,125,24,53,230,80,2,0 // vbroadcastss 0x250e6(%rip),%ymm14 # 32624 <_sk_srcover_rgba_8888_sse2_lowp+0x3fc>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,157,86,2,0 // vbroadcastss 0x2569d(%rip),%ymm10 # 32bf8 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 196,98,125,24,21,209,80,2,0 // vbroadcastss 0x250d1(%rip),%ymm10 # 32628 <_sk_srcover_rgba_8888_sse2_lowp+0x400>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,47,85,2,0 // vbroadcastss 0x2552f(%rip),%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,21,99,79,2,0 // vbroadcastss 0x24f63(%rip),%ymm10 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,25,85,2,0 // vbroadcastss 0x25519(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,21,77,79,2,0 // vbroadcastss 0x24f4d(%rip),%ymm10 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -22603,23 +22601,23 @@ _sk_xy_to_2pt_conical_quadratic_max_hsw:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,29,86,2,0 // vbroadcastss 0x2561d(%rip),%ymm11 # 32bfc <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,29,81,80,2,0 // vbroadcastss 0x25051(%rip),%ymm11 # 3262c <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,252,85,2,0 // vbroadcastss 0x255fc(%rip),%ymm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,24,13,48,80,2,0 // vbroadcastss 0x25030(%rip),%ymm9 # 32630 <_sk_srcover_rgba_8888_sse2_lowp+0x408>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,223,85,2,0 // vbroadcastss 0x255df(%rip),%ymm9 # 32c04 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,13,19,80,2,0 // vbroadcastss 0x25013(%rip),%ymm9 # 32634 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,108,84,2,0 // vbroadcastss 0x2546c(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,29,160,78,2,0 // vbroadcastss 0x24ea0(%rip),%ymm11 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -22638,23 +22636,23 @@ _sk_xy_to_2pt_conical_quadratic_min_hsw:
.byte 197,50,89,80,76 // vmulss 0x4c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,133,85,2,0 // vbroadcastss 0x25585(%rip),%ymm11 # 32bfc <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,29,185,79,2,0 // vbroadcastss 0x24fb9(%rip),%ymm11 # 3262c <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,100,85,2,0 // vbroadcastss 0x25564(%rip),%ymm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,24,13,152,79,2,0 // vbroadcastss 0x24f98(%rip),%ymm9 # 32630 <_sk_srcover_rgba_8888_sse2_lowp+0x408>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,71,85,2,0 // vbroadcastss 0x25547(%rip),%ymm9 # 32c04 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,13,123,79,2,0 // vbroadcastss 0x24f7b(%rip),%ymm9 # 32634 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,212,83,2,0 // vbroadcastss 0x253d4(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,29,8,78,2,0 // vbroadcastss 0x24e08(%rip),%ymm11 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -22672,14 +22670,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,76 // vmulss 0x4c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,243,84,2,0 // vbroadcastss 0x254f3(%rip),%ymm10 # 32bfc <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,21,39,79,2,0 // vbroadcastss 0x24f27(%rip),%ymm10 # 3262c <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,214,84,2,0 // vbroadcastss 0x254d6(%rip),%ymm8 # 32c04 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,5,10,79,2,0 // vbroadcastss 0x24f0a(%rip),%ymm8 # 32634 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22722,7 +22720,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,1,83,2,0 // vbroadcastss 0x25301(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,53,77,2,0 // vbroadcastss 0x24d35(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -22756,9 +22754,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,239,83,2,0 // vbroadcastss 0x253ef(%rip),%ymm0 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,226,125,24,5,35,78,2,0 // vbroadcastss 0x24e23(%rip),%ymm0 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,130,82,2,0 // vbroadcastss 0x25282(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,182,76,2,0 // vbroadcastss 0x24cb6(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22769,7 +22767,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,95,82,2,0 // vbroadcastss 0x2525f(%rip),%ymm0 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,226,125,24,5,147,76,2,0 // vbroadcastss 0x24c93(%rip),%ymm0 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -22781,9 +22779,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,160,83,2,0 // vbroadcastss 0x253a0(%rip),%ymm1 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,226,125,24,13,212,77,2,0 // vbroadcastss 0x24dd4(%rip),%ymm1 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,50,82,2,0 // vbroadcastss 0x25232(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,102,76,2,0 // vbroadcastss 0x24c66(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22794,7 +22792,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,15,82,2,0 // vbroadcastss 0x2520f(%rip),%ymm1 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,226,125,24,13,67,76,2,0 // vbroadcastss 0x24c43(%rip),%ymm1 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -22806,13 +22804,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,83,83,2,0 // vbroadcastss 0x25353(%rip),%ymm0 # 32c0c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,226,125,24,5,135,77,2,0 // vbroadcastss 0x24d87(%rip),%ymm0 # 3263c <_sk_srcover_rgba_8888_sse2_lowp+0x414>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,226,81,2,0 // vbroadcastss 0x251e2(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,22,76,2,0 // vbroadcastss 0x24c16(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,64,82,2,0 // vbroadcastss 0x25240(%rip),%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
- .byte 196,98,125,24,29,43,83,2,0 // vbroadcastss 0x2532b(%rip),%ymm11 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,21,116,76,2,0 // vbroadcastss 0x24c74(%rip),%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,95,77,2,0 // vbroadcastss 0x24d5f(%rip),%ymm11 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -22824,16 +22822,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,2,83,2,0 // vbroadcastss 0x25302(%rip),%ymm0 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,226,125,24,5,54,77,2,0 // vbroadcastss 0x24d36(%rip),%ymm0 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,149,81,2,0 // vbroadcastss 0x25195(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,201,75,2,0 // vbroadcastss 0x24bc9(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,244,82,2,0 // vbroadcastss 0x252f4(%rip),%ymm9 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 196,98,125,24,21,231,82,2,0 // vbroadcastss 0x252e7(%rip),%ymm10 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,13,40,77,2,0 // vbroadcastss 0x24d28(%rip),%ymm9 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
+ .byte 196,98,125,24,21,27,77,2,0 // vbroadcastss 0x24d1b(%rip),%ymm10 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,105,81,2,0 // vbroadcastss 0x25169(%rip),%ymm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,13,157,75,2,0 // vbroadcastss 0x24b9d(%rip),%ymm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,211,82,2,0 // vbroadcastss 0x252d3(%rip),%ymm10 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,7,77,2,0 // vbroadcastss 0x24d07(%rip),%ymm10 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22844,14 +22842,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,63,81,2,0 // vbroadcastss 0x2513f(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,115,75,2,0 // vbroadcastss 0x24b73(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,158,82,2,0 // vbroadcastss 0x2529e(%rip),%ymm10 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 196,98,125,24,29,145,82,2,0 // vbroadcastss 0x25291(%rip),%ymm11 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,21,210,76,2,0 // vbroadcastss 0x24cd2(%rip),%ymm10 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
+ .byte 196,98,125,24,29,197,76,2,0 // vbroadcastss 0x24cc5(%rip),%ymm11 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,134,82,2,0 // vbroadcastss 0x25286(%rip),%ymm8 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,5,186,76,2,0 // vbroadcastss 0x24cba(%rip),%ymm8 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22862,12 +22860,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,102,82,2,0 // vbroadcastss 0x25266(%rip),%ymm0 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,226,125,24,5,154,76,2,0 // vbroadcastss 0x24c9a(%rip),%ymm0 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,80,81,2,0 // vbroadcastss 0x25150(%rip),%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
- .byte 196,98,125,24,29,59,82,2,0 // vbroadcastss 0x2523b(%rip),%ymm11 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,21,132,75,2,0 // vbroadcastss 0x24b84(%rip),%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,111,76,2,0 // vbroadcastss 0x24c6f(%rip),%ymm11 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -22879,13 +22877,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,22,82,2,0 // vbroadcastss 0x25216(%rip),%ymm1 # 32c0c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,226,125,24,13,74,76,2,0 // vbroadcastss 0x24c4a(%rip),%ymm1 # 3263c <_sk_srcover_rgba_8888_sse2_lowp+0x414>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,164,80,2,0 // vbroadcastss 0x250a4(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,216,74,2,0 // vbroadcastss 0x24ad8(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,2,81,2,0 // vbroadcastss 0x25102(%rip),%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
- .byte 196,98,125,24,29,237,81,2,0 // vbroadcastss 0x251ed(%rip),%ymm11 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,21,54,75,2,0 // vbroadcastss 0x24b36(%rip),%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,33,76,2,0 // vbroadcastss 0x24c21(%rip),%ymm11 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -22897,16 +22895,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,196,81,2,0 // vbroadcastss 0x251c4(%rip),%ymm1 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,226,125,24,13,248,75,2,0 // vbroadcastss 0x24bf8(%rip),%ymm1 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,86,80,2,0 // vbroadcastss 0x25056(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,138,74,2,0 // vbroadcastss 0x24a8a(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,181,81,2,0 // vbroadcastss 0x251b5(%rip),%ymm9 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 196,98,125,24,21,168,81,2,0 // vbroadcastss 0x251a8(%rip),%ymm10 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,13,233,75,2,0 // vbroadcastss 0x24be9(%rip),%ymm9 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
+ .byte 196,98,125,24,21,220,75,2,0 // vbroadcastss 0x24bdc(%rip),%ymm10 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,42,80,2,0 // vbroadcastss 0x2502a(%rip),%ymm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,13,94,74,2,0 // vbroadcastss 0x24a5e(%rip),%ymm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,148,81,2,0 // vbroadcastss 0x25194(%rip),%ymm10 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,200,75,2,0 // vbroadcastss 0x24bc8(%rip),%ymm10 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22917,14 +22915,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,0,80,2,0 // vbroadcastss 0x25000(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,52,74,2,0 // vbroadcastss 0x24a34(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,94,81,2,0 // vbroadcastss 0x2515e(%rip),%ymm10 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 196,98,125,24,29,81,81,2,0 // vbroadcastss 0x25151(%rip),%ymm11 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,21,146,75,2,0 // vbroadcastss 0x24b92(%rip),%ymm10 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
+ .byte 196,98,125,24,29,133,75,2,0 // vbroadcastss 0x24b85(%rip),%ymm11 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,70,81,2,0 // vbroadcastss 0x25146(%rip),%ymm8 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,5,122,75,2,0 // vbroadcastss 0x24b7a(%rip),%ymm8 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22935,12 +22933,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,38,81,2,0 // vbroadcastss 0x25126(%rip),%ymm1 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,226,125,24,13,90,75,2,0 // vbroadcastss 0x24b5a(%rip),%ymm1 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,15,80,2,0 // vbroadcastss 0x2500f(%rip),%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
- .byte 196,98,125,24,29,250,80,2,0 // vbroadcastss 0x250fa(%rip),%ymm11 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,21,67,74,2,0 // vbroadcastss 0x24a43(%rip),%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
+ .byte 196,98,125,24,29,46,75,2,0 // vbroadcastss 0x24b2e(%rip),%ymm11 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -23080,7 +23078,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,188,78,2,0 // vpbroadcastd 0x24ebc(%rip),%ymm15 # 32c24 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,88,61,240,72,2,0 // vpbroadcastd 0x248f0(%rip),%ymm15 # 32654 <_sk_srcover_rgba_8888_sse2_lowp+0x42c>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -23092,13 +23090,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,6,77,2,0 // vpbroadcastd 0x24d06(%rip),%ymm7 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,88,61,58,71,2,0 // vpbroadcastd 0x2473a(%rip),%ymm7 # 324e4 <_sk_srcover_rgba_8888_sse2_lowp+0x2bc>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,78,78,2,0 // vbroadcastss 0x24e4e(%rip),%ymm0 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,226,125,24,5,130,72,2,0 // vbroadcastss 0x24882(%rip),%ymm0 # 32650 <_sk_srcover_rgba_8888_sse2_lowp+0x428>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -23360,7 +23358,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,231,72,2,0 // vpbroadcastd 0x248e7(%rip),%ymm10 # 32c24 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,88,21,27,67,2,0 // vpbroadcastd 0x2431b(%rip),%ymm10 # 32654 <_sk_srcover_rgba_8888_sse2_lowp+0x42c>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -23372,13 +23370,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,46,71,2,0 // vpbroadcastd 0x2472e(%rip),%ymm11 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,88,29,98,65,2,0 // vpbroadcastd 0x24162(%rip),%ymm11 # 324e4 <_sk_srcover_rgba_8888_sse2_lowp+0x2bc>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,119,72,2,0 // vbroadcastss 0x24877(%rip),%ymm0 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,226,125,24,5,171,66,2,0 // vbroadcastss 0x242ab(%rip),%ymm0 # 32650 <_sk_srcover_rgba_8888_sse2_lowp+0x428>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -23811,7 +23809,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,81,61,2,0 // vbroadcastss 0x23d51(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,133,55,2,0 // vbroadcastss 0x23785(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -23840,13 +23838,13 @@ _sk_start_pipeline_avx:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae ee4e <_sk_start_pipeline_avx+0xca>
+ .byte 15,131,151,0,0,0 // jae ee4a <_sk_start_pipeline_avx+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja ee10 <_sk_start_pipeline_avx+0x8c>
+ .byte 119,67 // ja ee0c <_sk_start_pipeline_avx+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -23865,10 +23863,10 @@ _sk_start_pipeline_avx:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe edd1 <_sk_start_pipeline_avx+0x4d>
+ .byte 118,193 // jbe edcd <_sk_start_pipeline_avx+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je ee41 <_sk_start_pipeline_avx+0xbd>
+ .byte 116,41 // je ee3d <_sk_start_pipeline_avx+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -23882,7 +23880,7 @@ _sk_start_pipeline_avx:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne edc3 <_sk_start_pipeline_avx+0x3f>
+ .byte 15,133,117,255,255,255 // jne edbf <_sk_start_pipeline_avx+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -23903,19 +23901,20 @@ HIDDEN _sk_seed_shader_avx
.globl _sk_seed_shader_avx
FUNCTION(_sk_seed_shader_avx)
_sk_seed_shader_avx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,249,110,194 // vmovd %edx,%xmm0
.byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,228,57,2,0 // vaddps 0x239e4(%rip),%ymm0,%ymm0 # 32860 <_sk_srcover_rgba_8888_sse2_lowp+0x634>
+ .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,12,60,2,0 // vbroadcastss 0x23c0c(%rip),%ymm2 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,226,125,24,21,66,54,2,0 // vbroadcastss 0x23642(%rip),%ymm2 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,1,60,2,0 // vbroadcastss 0x23c01(%rip),%ymm2 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,21,55,54,2,0 // vbroadcastss 0x23637(%rip),%ymm2 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -23929,46 +23928,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,177,61,2,0 // vpaddd 0x23db1(%rip),%xmm8,%xmm9 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
- .byte 197,57,254,5,185,61,2,0 // vpaddd 0x23db9(%rip),%xmm8,%xmm8 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 197,57,254,13,87,61,2,0 // vpaddd 0x23d57(%rip),%xmm8,%xmm9 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 197,57,254,5,95,61,2,0 // vpaddd 0x23d5f(%rip),%xmm8,%xmm8 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,177,59,2,0 // vbroadcastss 0x23bb1(%rip),%ymm10 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,24,21,231,53,2,0 // vbroadcastss 0x235e7(%rip),%ymm10 # 324dc <_sk_srcover_rgba_8888_sse2_lowp+0x2b4>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,128,69,2,0 // vmovddup 0x24580(%rip),%xmm12 # 334a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1274>
+ .byte 197,123,18,37,22,69,2,0 // vmovddup 0x24516(%rip),%xmm12 # 33430 <_sk_srcover_rgba_8888_sse2_lowp+0x1208>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,111,59,2,0 // vbroadcastss 0x23b6f(%rip),%ymm13 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,45,165,53,2,0 // vbroadcastss 0x235a5(%rip),%ymm13 # 324e4 <_sk_srcover_rgba_8888_sse2_lowp+0x2bc>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,62,69,2,0 // vmovddup 0x2453e(%rip),%xmm14 # 334a8 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
+ .byte 197,123,18,53,212,68,2,0 // vmovddup 0x244d4(%rip),%xmm14 # 33438 <_sk_srcover_rgba_8888_sse2_lowp+0x1210>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,30,59,2,0 // vbroadcastss 0x23b1e(%rip),%ymm14 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,53,84,53,2,0 // vbroadcastss 0x23554(%rip),%ymm14 # 324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x2b8>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,244,68,2,0 // vmovddup 0x244f4(%rip),%xmm13 # 334b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
+ .byte 197,123,18,45,138,68,2,0 // vmovddup 0x2448a(%rip),%xmm13 # 33440 <_sk_srcover_rgba_8888_sse2_lowp+0x1218>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -23979,9 +23978,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,193,58,2,0 // vbroadcastss 0x23ac1(%rip),%ymm9 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,13,247,52,2,0 // vbroadcastss 0x234f7(%rip),%ymm9 # 324e8 <_sk_srcover_rgba_8888_sse2_lowp+0x2c0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,183,58,2,0 // vbroadcastss 0x23ab7(%rip),%ymm9 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,13,237,52,2,0 // vbroadcastss 0x234ed(%rip),%ymm9 # 324ec <_sk_srcover_rgba_8888_sse2_lowp+0x2c4>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -24015,7 +24014,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,63,58,2,0 // vbroadcastss 0x23a3f(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,117,52,2,0 // vbroadcastss 0x23475(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -24026,7 +24025,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,38,58,2,0 // vbroadcastss 0x23a26(%rip),%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,5,92,52,2,0 // vbroadcastss 0x2345c(%rip),%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -24072,7 +24071,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,197,57,2,0 // vbroadcastss 0x239c5(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,251,51,2,0 // vbroadcastss 0x233fb(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -24093,7 +24092,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,131,57,2,0 // vbroadcastss 0x23983(%rip),%ymm9 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,13,185,51,2,0 // vbroadcastss 0x233b9(%rip),%ymm9 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -24135,7 +24134,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,30,57,2,0 // vbroadcastss 0x2391e(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,84,51,2,0 // vbroadcastss 0x23354(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -24148,7 +24147,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,253,56,2,0 // vbroadcastss 0x238fd(%rip),%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,5,51,51,2,0 // vbroadcastss 0x23333(%rip),%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -24161,7 +24160,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,220,56,2,0 // vbroadcastss 0x238dc(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,18,51,2,0 // vbroadcastss 0x23312(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -24178,7 +24177,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,171,56,2,0 // vbroadcastss 0x238ab(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,225,50,2,0 // vbroadcastss 0x232e1(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -24206,7 +24205,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,102,56,2,0 // vbroadcastss 0x23866(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,156,50,2,0 // vbroadcastss 0x2329c(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24237,7 +24236,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,245,55,2,0 // vbroadcastss 0x237f5(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,43,50,2,0 // vbroadcastss 0x2322b(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -24271,7 +24270,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,148,55,2,0 // vbroadcastss 0x23794(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,202,49,2,0 // vbroadcastss 0x231ca(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24308,7 +24307,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,16,55,2,0 // vbroadcastss 0x23710(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,70,49,2,0 // vbroadcastss 0x23146(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24334,7 +24333,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,184,54,2,0 // vbroadcastss 0x236b8(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,238,48,2,0 // vbroadcastss 0x230ee(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24363,7 +24362,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,84,54,2,0 // vbroadcastss 0x23654(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,138,48,2,0 // vbroadcastss 0x2308a(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24386,7 +24385,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,11,54,2,0 // vbroadcastss 0x2360b(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,65,48,2,0 // vbroadcastss 0x23041(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24397,7 +24396,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,242,53,2,0 // vbroadcastss 0x235f2(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,40,48,2,0 // vbroadcastss 0x23028(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -24459,7 +24458,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,246,52,2,0 // vbroadcastss 0x234f6(%rip),%ymm9 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,13,44,47,2,0 // vbroadcastss 0x22f2c(%rip),%ymm9 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -24516,7 +24515,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,1,52,2,0 // vbroadcastss 0x23401(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,55,46,2,0 // vbroadcastss 0x22e37(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24571,7 +24570,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,38,51,2,0 // vbroadcastss 0x23326(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,92,45,2,0 // vbroadcastss 0x22d5c(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24637,10 +24636,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,45,50,2,0 // vbroadcastss 0x2322d(%rip),%ymm11 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,29,99,44,2,0 // vbroadcastss 0x22c63(%rip),%ymm11 # 324f0 <_sk_srcover_rgba_8888_sse2_lowp+0x2c8>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,30,50,2,0 // vbroadcastss 0x2321e(%rip),%ymm13 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,125,24,45,84,44,2,0 // vbroadcastss 0x22c54(%rip),%ymm13 # 324f4 <_sk_srcover_rgba_8888_sse2_lowp+0x2cc>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -24651,7 +24650,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,200,49,2,0 // vbroadcastss 0x231c8(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,254,43,2,0 // vbroadcastss 0x22bfe(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -24778,12 +24777,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,171,47,2,0 // vbroadcastss 0x22fab(%rip),%ymm14 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,53,225,41,2,0 // vbroadcastss 0x229e1(%rip),%ymm14 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,161,47,2,0 // vbroadcastss 0x22fa1(%rip),%ymm15 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,61,215,41,2,0 // vbroadcastss 0x229d7(%rip),%ymm15 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,146,47,2,0 // vbroadcastss 0x22f92(%rip),%ymm0 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,226,125,24,5,200,41,2,0 // vbroadcastss 0x229c8(%rip),%ymm0 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -24844,7 +24843,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,63,46,2,0 // vbroadcastss 0x22e3f(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,117,40,2,0 // vbroadcastss 0x22875(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24901,12 +24900,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,105,45,2,0 // vbroadcastss 0x22d69(%rip),%ymm14 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,53,159,39,2,0 // vbroadcastss 0x2279f(%rip),%ymm14 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,95,45,2,0 // vbroadcastss 0x22d5f(%rip),%ymm15 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,61,149,39,2,0 // vbroadcastss 0x22795(%rip),%ymm15 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,80,45,2,0 // vbroadcastss 0x22d50(%rip),%ymm0 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,226,125,24,5,134,39,2,0 // vbroadcastss 0x22786(%rip),%ymm0 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -24967,7 +24966,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,253,43,2,0 // vbroadcastss 0x22bfd(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,51,38,2,0 // vbroadcastss 0x22633(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24996,12 +24995,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,175,43,2,0 // vbroadcastss 0x22baf(%rip),%ymm13 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,45,229,37,2,0 // vbroadcastss 0x225e5(%rip),%ymm13 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,165,43,2,0 // vbroadcastss 0x22ba5(%rip),%ymm14 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,53,219,37,2,0 // vbroadcastss 0x225db(%rip),%ymm14 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,150,43,2,0 // vbroadcastss 0x22b96(%rip),%ymm15 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,61,204,37,2,0 // vbroadcastss 0x225cc(%rip),%ymm15 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -25064,7 +25063,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,49,42,2,0 // vbroadcastss 0x22a31(%rip),%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,5,103,36,2,0 // vbroadcastss 0x22467(%rip),%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -25094,12 +25093,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,223,41,2,0 // vbroadcastss 0x229df(%rip),%ymm13 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,45,21,36,2,0 // vbroadcastss 0x22415(%rip),%ymm13 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,213,41,2,0 // vbroadcastss 0x229d5(%rip),%ymm14 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,53,11,36,2,0 // vbroadcastss 0x2240b(%rip),%ymm14 # 324fc <_sk_srcover_rgba_8888_sse2_lowp+0x2d4>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,198,41,2,0 // vbroadcastss 0x229c6(%rip),%ymm15 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,61,252,35,2,0 // vbroadcastss 0x223fc(%rip),%ymm15 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x2d8>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -25162,7 +25161,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,97,40,2,0 // vbroadcastss 0x22861(%rip),%ymm0 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,5,151,34,2,0 // vbroadcastss 0x22297(%rip),%ymm0 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -25194,9 +25193,9 @@ _sk_srcover_rgba_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,42,1,0,0 // jne 103dc <_sk_srcover_rgba_8888_avx+0x14a>
+ .byte 15,133,42,1,0,0 // jne 103d6 <_sk_srcover_rgba_8888_avx+0x14a>
.byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8
- .byte 197,125,40,13,192,37,2,0 // vmovapd 0x225c0(%rip),%ymm9 # 32880 <_sk_srcover_rgba_8888_sse2_lowp+0x654>
+ .byte 197,125,40,13,6,39,2,0 // vmovapd 0x22706(%rip),%ymm9 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x798>
.byte 196,193,61,84,225 // vandpd %ymm9,%ymm8,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
@@ -25214,9 +25213,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,135,39,2,0 // vbroadcastss 0x22787(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,189,33,2,0 // vbroadcastss 0x221bd(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,166,39,2,0 // vbroadcastss 0x227a6(%rip),%ymm9 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,13,220,33,2,0 // vbroadcastss 0x221dc(%rip),%ymm9 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
@@ -25249,7 +25248,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9
.byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 10414 <_sk_srcover_rgba_8888_avx+0x182>
+ .byte 117,66 // jne 1040e <_sk_srcover_rgba_8888_avx+0x182>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25258,33 +25257,33 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,195,254,255,255 // ja 102b8 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 15,135,195,254,255,255 // ja 102b2 <_sk_srcover_rgba_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,4,1,0,0 // lea 0x104(%rip),%r10 # 10504 <_sk_srcover_rgba_8888_avx+0x272>
+ .byte 76,141,21,6,1,0,0 // lea 0x106(%rip),%r10 # 10500 <_sk_srcover_rgba_8888_avx+0x274>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,4,152 // vmovss (%r8,%r11,4),%xmm8
- .byte 233,164,254,255,255 // jmpq 102b8 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,164,254,255,255 // jmpq 102b2 <_sk_srcover_rgba_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 103d8 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 119,180 // ja 103d2 <_sk_srcover_rgba_8888_avx+0x146>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 10520 <_sk_srcover_rgba_8888_avx+0x28e>
+ .byte 76,141,13,243,0,0,0 // lea 0xf3(%rip),%r9 # 1051c <_sk_srcover_rgba_8888_avx+0x290>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 103d8 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 235,152 // jmp 103d2 <_sk_srcover_rgba_8888_avx+0x146>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8
- .byte 233,81,254,255,255 // jmpq 102b8 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,81,254,255,255 // jmpq 102b2 <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -25298,10 +25297,10 @@ _sk_srcover_rgba_8888_avx:
.byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8
- .byte 233,252,253,255,255 // jmpq 102b8 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,252,253,255,255 // jmpq 102b2 <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 103d8 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 233,9,255,255,255 // jmpq 103d2 <_sk_srcover_rgba_8888_avx+0x146>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -25309,35 +25308,37 @@ _sk_srcover_rgba_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 103d8 <_sk_srcover_rgba_8888_avx+0x146>
- .byte 144 // nop
- .byte 5,255,255,255,82 // add $0x52ffffff,%eax
+ .byte 233,213,254,255,255 // jmpq 103d2 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 3,255 // add %edi,%edi
.byte 255 // (bad)
+ .byte 255,80,255 // callq *-0x1(%rax)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 60,255 // cmp $0xff,%al
+ .byte 58,255 // cmp %bh,%bh
.byte 255 // (bad)
- .byte 255,167,255,255,255,147 // jmpq *-0x6c000001(%rdi)
+ .byte 255,165,255,255,255,145 // jmpq *-0x6e000001(%rbp)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 10519 <_sk_srcover_rgba_8888_avx+0x287>
+ .byte 125,255 // jge 10515 <_sk_srcover_rgba_8888_avx+0x289>
.byte 255 // (bad)
- .byte 255,99,255 // jmpq *-0x1(%rbx)
+ .byte 255,97,255 // jmpq *-0x1(%rcx)
.byte 255 // (bad)
- .byte 255,24 // lcall *(%rax)
+ .byte 255,22 // callq *(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,164,255,255,255,156,255 // jmpq *-0x630001(%rdi,%rdi,8)
+ .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
+ .byte 255,214 // callq *%rsi
.byte 255 // (bad)
- .byte 255,203 // dec %ebx
+ .byte 255 // (bad)
+ .byte 255,201 // dec %ecx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 189,255,255,255,175 // mov $0xafffffff,%ebp
+ .byte 187,255,255,255,173 // mov $0xadffffff,%ebx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -25358,7 +25359,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,70,37,2,0 // vbroadcastss 0x22546(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,122,31,2,0 // vbroadcastss 0x21f7a(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -25370,7 +25371,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,37,37,2,0 // vbroadcastss 0x22525(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,89,31,2,0 // vbroadcastss 0x21f59(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -25382,7 +25383,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,7,37,2,0 // vbroadcastss 0x22507(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,59,31,2,0 // vbroadcastss 0x21f3b(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -25415,7 +25416,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,194,36,2,0 // vbroadcastss 0x224c2(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,246,30,2,0 // vbroadcastss 0x21ef6(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -25469,9 +25470,9 @@ HIDDEN _sk_unpremul_avx
.globl _sk_unpremul_avx
FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
- .byte 196,98,125,24,5,93,36,2,0 // vbroadcastss 0x2245d(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,145,30,2,0 // vbroadcastss 0x21e91(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,128,36,2,0 // vbroadcastss 0x22480(%rip),%ymm9 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,13,180,30,2,0 // vbroadcastss 0x21eb4(%rip),%ymm9 # 32508 <_sk_srcover_rgba_8888_sse2_lowp+0x2e0>
.byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
@@ -25485,17 +25486,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,90,36,2,0 // vbroadcastss 0x2245a(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,5,142,30,2,0 // vbroadcastss 0x21e8e(%rip),%ymm8 # 3250c <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,52,36,2,0 // vbroadcastss 0x22434(%rip),%ymm11 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,29,104,30,2,0 // vbroadcastss 0x21e68(%rip),%ymm11 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,62,36,2,0 // vbroadcastss 0x2243e(%rip),%ymm13 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,45,114,30,2,0 // vbroadcastss 0x21e72(%rip),%ymm13 # 32510 <_sk_srcover_rgba_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,47,36,2,0 // vbroadcastss 0x2242f(%rip),%ymm12 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,37,99,30,2,0 // vbroadcastss 0x21e63(%rip),%ymm12 # 32514 <_sk_srcover_rgba_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,37,36,2,0 // vbroadcastss 0x22425(%rip),%ymm14 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,53,89,30,2,0 // vbroadcastss 0x21e59(%rip),%ymm14 # 32518 <_sk_srcover_rgba_8888_sse2_lowp+0x2f0>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -25521,17 +25522,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,174,35,2,0 // vbroadcastss 0x223ae(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,5,226,29,2,0 // vbroadcastss 0x21de2(%rip),%ymm8 # 3250c <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,136,35,2,0 // vbroadcastss 0x22388(%rip),%ymm11 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,29,188,29,2,0 // vbroadcastss 0x21dbc(%rip),%ymm11 # 324f8 <_sk_srcover_rgba_8888_sse2_lowp+0x2d0>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,146,35,2,0 // vbroadcastss 0x22392(%rip),%ymm13 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,45,198,29,2,0 // vbroadcastss 0x21dc6(%rip),%ymm13 # 32510 <_sk_srcover_rgba_8888_sse2_lowp+0x2e8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,131,35,2,0 // vbroadcastss 0x22383(%rip),%ymm12 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,37,183,29,2,0 // vbroadcastss 0x21db7(%rip),%ymm12 # 32514 <_sk_srcover_rgba_8888_sse2_lowp+0x2ec>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,121,35,2,0 // vbroadcastss 0x22379(%rip),%ymm14 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,53,173,29,2,0 // vbroadcastss 0x21dad(%rip),%ymm14 # 32518 <_sk_srcover_rgba_8888_sse2_lowp+0x2f0>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -25558,20 +25559,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,14,35,2,0 // vbroadcastss 0x2230e(%rip),%ymm8 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,5,66,29,2,0 // vbroadcastss 0x21d42(%rip),%ymm8 # 3251c <_sk_srcover_rgba_8888_sse2_lowp+0x2f4>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,8,35,2,0 // vbroadcastss 0x22308(%rip),%ymm11 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,29,60,29,2,0 // vbroadcastss 0x21d3c(%rip),%ymm11 # 32524 <_sk_srcover_rgba_8888_sse2_lowp+0x2fc>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,246,34,2,0 // vbroadcastss 0x222f6(%rip),%ymm13 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,45,42,29,2,0 // vbroadcastss 0x21d2a(%rip),%ymm13 # 32520 <_sk_srcover_rgba_8888_sse2_lowp+0x2f8>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,27,36,2,0 // vbroadcastss 0x2241b(%rip),%ymm14 # 32c28 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,53,79,30,2,0 // vbroadcastss 0x21e4f(%rip),%ymm14 # 32658 <_sk_srcover_rgba_8888_sse2_lowp+0x430>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,17,36,2,0 // vbroadcastss 0x22411(%rip),%ymm15 # 32c2c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,98,125,24,61,69,30,2,0 // vbroadcastss 0x21e45(%rip),%ymm15 # 3265c <_sk_srcover_rgba_8888_sse2_lowp+0x434>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,205,34,2,0 // vbroadcastss 0x222cd(%rip),%ymm12 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,37,1,29,2,0 // vbroadcastss 0x21d01(%rip),%ymm12 # 32530 <_sk_srcover_rgba_8888_sse2_lowp+0x308>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -25608,7 +25609,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,213,33,2,0 // vbroadcastss 0x221d5(%rip),%ymm11 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,29,9,28,2,0 // vbroadcastss 0x21c09(%rip),%ymm11 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -25618,19 +25619,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,6,34,2,0 // vbroadcastss 0x22206(%rip),%ymm11 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,29,58,28,2,0 // vbroadcastss 0x21c3a(%rip),%ymm11 # 3253c <_sk_srcover_rgba_8888_sse2_lowp+0x314>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,244,33,2,0 // vbroadcastss 0x221f4(%rip),%ymm11 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,29,40,28,2,0 // vbroadcastss 0x21c28(%rip),%ymm11 # 32538 <_sk_srcover_rgba_8888_sse2_lowp+0x310>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,220,33,2,0 // vbroadcastss 0x221dc(%rip),%ymm2 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,226,125,24,21,16,28,2,0 // vbroadcastss 0x21c10(%rip),%ymm2 # 32534 <_sk_srcover_rgba_8888_sse2_lowp+0x30c>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,83,33,2,0 // vbroadcastss 0x22153(%rip),%ymm12 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,37,135,27,2,0 // vbroadcastss 0x21b87(%rip),%ymm12 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -25640,7 +25641,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,134,33,2,0 // vbroadcastss 0x22186(%rip),%ymm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,5,186,27,2,0 // vbroadcastss 0x21bba(%rip),%ymm8 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x318>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25657,7 +25658,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,223,32,2,0 // vbroadcastss 0x220df(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,19,27,2,0 // vbroadcastss 0x21b13(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -25665,23 +25666,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,37,33,2,0 // vbroadcastss 0x22125(%rip),%ymm11 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,29,89,27,2,0 // vbroadcastss 0x21b59(%rip),%ymm11 # 32544 <_sk_srcover_rgba_8888_sse2_lowp+0x31c>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,247,32,2,0 // vbroadcastss 0x220f7(%rip),%ymm12 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,37,43,27,2,0 // vbroadcastss 0x21b2b(%rip),%ymm12 # 32534 <_sk_srcover_rgba_8888_sse2_lowp+0x30c>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,241,32,2,0 // vbroadcastss 0x220f1(%rip),%ymm13 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,45,37,27,2,0 // vbroadcastss 0x21b25(%rip),%ymm13 # 3253c <_sk_srcover_rgba_8888_sse2_lowp+0x314>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,230,32,2,0 // vbroadcastss 0x220e6(%rip),%ymm1 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,226,125,24,13,26,27,2,0 // vbroadcastss 0x21b1a(%rip),%ymm1 # 32548 <_sk_srcover_rgba_8888_sse2_lowp+0x320>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,189,32,2,0 // vbroadcastss 0x220bd(%rip),%ymm14 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,53,241,26,2,0 // vbroadcastss 0x21af1(%rip),%ymm14 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x318>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -25700,7 +25701,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,103,32,2,0 // vbroadcastss 0x22067(%rip),%ymm0 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,226,125,24,5,155,26,2,0 // vbroadcastss 0x21a9b(%rip),%ymm0 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -25754,15 +25755,15 @@ _sk_scale_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 10bbb <_sk_scale_u8_avx+0x63>
+ .byte 117,75 // jne 10bb7 <_sk_scale_u8_avx+0x63>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,210,32,2,0 // vpand 0x220d2(%rip),%xmm8,%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,118,32,2,0 // vpand 0x22076(%rip),%xmm8,%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,126,31,2,0 // vbroadcastss 0x21f7e(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,13,178,25,2,0 // vbroadcastss 0x219b2(%rip),%ymm9 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -25775,15 +25776,15 @@ _sk_scale_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 10b76 <_sk_scale_u8_avx+0x1e>
+ .byte 119,166 // ja 10b72 <_sk_scale_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 10c54 <_sk_scale_u8_avx+0xfc>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 10c50 <_sk_scale_u8_avx+0xfc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 10b76 <_sk_scale_u8_avx+0x1e>
+ .byte 235,135 // jmp 10b72 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -25791,7 +25792,7 @@ _sk_scale_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,94,255,255,255 // jmpq 10b76 <_sk_scale_u8_avx+0x1e>
+ .byte 233,94,255,255,255 // jmpq 10b72 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -25802,7 +25803,7 @@ _sk_scale_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,34,255,255,255 // jmpq 10b76 <_sk_scale_u8_avx+0x1e>
+ .byte 233,34,255,255,255 // jmpq 10b72 <_sk_scale_u8_avx+0x1e>
.byte 144 // nop
.byte 255 // (bad)
.byte 255 // (bad)
@@ -25836,26 +25837,26 @@ _sk_scale_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,178,0,0,0 // jne 10d41 <_sk_scale_565_avx+0xd1>
+ .byte 15,133,178,0,0,0 // jne 10d3d <_sk_scale_565_avx+0xd1>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,112,30,2,0 // vbroadcastss 0x21e70(%rip),%ymm9 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,13,164,24,2,0 // vbroadcastss 0x218a4(%rip),%ymm9 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,97,30,2,0 // vbroadcastss 0x21e61(%rip),%ymm10 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,149,24,2,0 // vbroadcastss 0x21895(%rip),%ymm10 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,87,30,2,0 // vbroadcastss 0x21e57(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,21,139,24,2,0 // vbroadcastss 0x2188b(%rip),%ymm10 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,72,30,2,0 // vbroadcastss 0x21e48(%rip),%ymm11 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,29,124,24,2,0 // vbroadcastss 0x2187c(%rip),%ymm11 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,62,30,2,0 // vbroadcastss 0x21e3e(%rip),%ymm11 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,29,114,24,2,0 // vbroadcastss 0x21872(%rip),%ymm11 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,47,30,2,0 // vbroadcastss 0x21e2f(%rip),%ymm11 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,29,99,24,2,0 // vbroadcastss 0x21863(%rip),%ymm11 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -25874,27 +25875,27 @@ _sk_scale_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 10c95 <_sk_scale_565_avx+0x25>
+ .byte 15,135,59,255,255,255 // ja 10c91 <_sk_scale_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 10dc8 <_sk_scale_565_avx+0x158>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 10dc4 <_sk_scale_565_avx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,25,255,255,255 // jmpq 10c95 <_sk_scale_565_avx+0x25>
+ .byte 233,25,255,255,255 // jmpq 10c91 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 10c95 <_sk_scale_565_avx+0x25>
+ .byte 233,251,254,255,255 // jmpq 10c91 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,205,254,255,255 // jmpq 10c95 <_sk_scale_565_avx+0x25>
+ .byte 233,205,254,255,255 // jmpq 10c91 <_sk_scale_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -25946,15 +25947,15 @@ _sk_lerp_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 10eaa <_sk_lerp_u8_avx+0x87>
+ .byte 117,111 // jne 10ea6 <_sk_lerp_u8_avx+0x87>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,7,30,2,0 // vpand 0x21e07(%rip),%xmm8,%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,171,29,2,0 // vpand 0x21dab(%rip),%xmm8,%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,179,28,2,0 // vbroadcastss 0x21cb3(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,13,231,22,2,0 // vbroadcastss 0x216e7(%rip),%ymm9 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -25975,15 +25976,15 @@ _sk_lerp_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 10e41 <_sk_lerp_u8_avx+0x1e>
+ .byte 119,130 // ja 10e3d <_sk_lerp_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 10f48 <_sk_lerp_u8_avx+0x125>
+ .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 10f44 <_sk_lerp_u8_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,96,255,255,255 // jmpq 10e41 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,96,255,255,255 // jmpq 10e3d <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -25991,7 +25992,7 @@ _sk_lerp_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,55,255,255,255 // jmpq 10e41 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,55,255,255,255 // jmpq 10e3d <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -26002,7 +26003,7 @@ _sk_lerp_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,251,254,255,255 // jmpq 10e41 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,251,254,255,255 // jmpq 10e3d <_sk_lerp_u8_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 139,255 // mov %edi,%edi
.byte 255 // (bad)
@@ -26010,7 +26011,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde010f58 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfded2c>
+ .byte 232,255,255,255,221 // callq ffffffffde010f54 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfded2c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -26033,26 +26034,26 @@ _sk_lerp_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,214,0,0,0 // jne 11059 <_sk_lerp_565_avx+0xf5>
+ .byte 15,133,214,0,0,0 // jne 11055 <_sk_lerp_565_avx+0xf5>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,124,27,2,0 // vbroadcastss 0x21b7c(%rip),%ymm9 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,13,176,21,2,0 // vbroadcastss 0x215b0(%rip),%ymm9 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,109,27,2,0 // vbroadcastss 0x21b6d(%rip),%ymm10 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,161,21,2,0 // vbroadcastss 0x215a1(%rip),%ymm10 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,99,27,2,0 // vbroadcastss 0x21b63(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,21,151,21,2,0 // vbroadcastss 0x21597(%rip),%ymm10 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,84,27,2,0 // vbroadcastss 0x21b54(%rip),%ymm11 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,29,136,21,2,0 // vbroadcastss 0x21588(%rip),%ymm11 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,74,27,2,0 // vbroadcastss 0x21b4a(%rip),%ymm11 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,29,126,21,2,0 // vbroadcastss 0x2157e(%rip),%ymm11 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,59,27,2,0 // vbroadcastss 0x21b3b(%rip),%ymm11 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,29,111,21,2,0 // vbroadcastss 0x2156f(%rip),%ymm11 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -26079,27 +26080,27 @@ _sk_lerp_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,23,255,255,255 // ja 10f89 <_sk_lerp_565_avx+0x25>
+ .byte 15,135,23,255,255,255 // ja 10f85 <_sk_lerp_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 110e0 <_sk_lerp_565_avx+0x17c>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 110dc <_sk_lerp_565_avx+0x17c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,245,254,255,255 // jmpq 10f89 <_sk_lerp_565_avx+0x25>
+ .byte 233,245,254,255,255 // jmpq 10f85 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,215,254,255,255 // jmpq 10f89 <_sk_lerp_565_avx+0x25>
+ .byte 233,215,254,255,255 // jmpq 10f85 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,169,254,255,255 // jmpq 10f89 <_sk_lerp_565_avx+0x25>
+ .byte 233,169,254,255,255 // jmpq 10f85 <_sk_lerp_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -26127,9 +26128,9 @@ _sk_load_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,2,0,0 // jne 11314 <_sk_load_tables_avx+0x218>
+ .byte 15,133,4,2,0,0 // jne 11310 <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,130,23,2,0 // vmovapd 0x21782(%rip),%ymm9 # 328a0 <_sk_srcover_rgba_8888_sse2_lowp+0x674>
+ .byte 197,125,40,13,198,24,2,0 // vmovapd 0x218c6(%rip),%ymm9 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x7b8>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -26221,7 +26222,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,26,24,2,0 // vbroadcastss 0x2181a(%rip),%ymm7 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,61,78,18,2,0 // vbroadcastss 0x2124e(%rip),%ymm7 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -26231,21 +26232,21 @@ _sk_load_tables_avx:
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,233,253,255,255 // ja 11116 <_sk_load_tables_avx+0x1a>
+ .byte 15,135,233,253,255,255 // ja 11112 <_sk_load_tables_avx+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 113cc <_sk_load_tables_avx+0x2d0>
+ .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 113c8 <_sk_load_tables_avx+0x2d0>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 11116 <_sk_load_tables_avx+0x1a>
+ .byte 233,201,253,255,255 // jmpq 11112 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 11116 <_sk_load_tables_avx+0x1a>
+ .byte 233,162,253,255,255 // jmpq 11112 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -26259,9 +26260,9 @@ _sk_load_tables_avx:
.byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 11116 <_sk_load_tables_avx+0x1a>
+ .byte 233,77,253,255,255 // jmpq 11112 <_sk_load_tables_avx+0x1a>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 113cd <_sk_load_tables_avx+0x2d1>
+ .byte 118,255 // jbe 113c9 <_sk_load_tables_avx+0x2d1>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -26291,7 +26292,7 @@ _sk_load_tables_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,75,2,0,0 // jne 11655 <_sk_load_tables_u16_be_avx+0x26d>
+ .byte 15,133,75,2,0,0 // jne 11651 <_sk_load_tables_u16_be_avx+0x26d>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -26307,7 +26308,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,244,23,2,0 // vmovdqa 0x217f4(%rip),%xmm11 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,121,111,29,152,23,2,0 // vmovdqa 0x21798(%rip),%xmm11 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -26401,7 +26402,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,251,20,2,0 // vbroadcastss 0x214fb(%rip),%ymm6 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,53,47,15,2,0 // vbroadcastss 0x20f2f(%rip),%ymm6 # 3256c <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -26410,29 +26411,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 116bb <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 116,85 // je 116b7 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 116bb <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 114,72 // jb 116b7 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 116c8 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 116,72 // je 116c4 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 116c8 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 114,59 // jb 116c4 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,135,253,255,255 // je 11425 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,132,135,253,255,255 // je 11421 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,118,253,255,255 // jb 11425 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,130,118,253,255,255 // jb 11421 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,106,253,255,255 // jmpq 11425 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,106,253,255,255 // jmpq 11421 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,93,253,255,255 // jmpq 11425 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,93,253,255,255 // jmpq 11421 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,84,253,255,255 // jmpq 11425 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,84,253,255,255 // jmpq 11421 <_sk_load_tables_u16_be_avx+0x3d>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -26444,7 +26445,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,54,2,0,0 // jne 11925 <_sk_load_tables_rgb_u16_be_avx+0x254>
+ .byte 15,133,54,2,0,0 // jne 11921 <_sk_load_tables_rgb_u16_be_avx+0x254>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -26465,7 +26466,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,244,20,2,0 // vmovdqa 0x214f4(%rip),%xmm14 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,121,111,53,152,20,2,0 // vmovdqa 0x21498(%rip),%xmm14 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -26551,7 +26552,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,145,17,2,0 // vbroadcastss 0x21191(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,197,11,2,0 // vbroadcastss 0x20bc5(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -26559,70 +26560,70 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 1195d <_sk_load_tables_rgb_u16_be_avx+0x28c>
+ .byte 117,31 // jne 11959 <_sk_load_tables_rgb_u16_be_avx+0x28c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,199,253,255,255 // jmpq 11724 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,199,253,255,255 // jmpq 11720 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 119a7 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
+ .byte 114,48 // jb 119a3 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 119c1 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+ .byte 117,48 // jne 119bd <_sk_load_tables_rgb_u16_be_avx+0x2f0>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,125,253,255,255 // jmpq 11724 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,125,253,255,255 // jmpq 11720 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,99,253,255,255 // jmpq 11724 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,99,253,255,255 // jmpq 11720 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 11a02 <_sk_load_tables_rgb_u16_be_avx+0x331>
+ .byte 114,39 // jb 119fe <_sk_load_tables_rgb_u16_be_avx+0x331>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 11a13 <_sk_load_tables_rgb_u16_be_avx+0x342>
+ .byte 117,30 // jne 11a0f <_sk_load_tables_rgb_u16_be_avx+0x342>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,34,253,255,255 // jmpq 11724 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,34,253,255,255 // jmpq 11720 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,17,253,255,255 // jmpq 11724 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,17,253,255,255 // jmpq 11720 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 11a46 <_sk_load_tables_rgb_u16_be_avx+0x375>
+ .byte 114,25 // jb 11a42 <_sk_load_tables_rgb_u16_be_avx+0x375>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,222,252,255,255 // jmpq 11724 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,222,252,255,255 // jmpq 11720 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,213,252,255,255 // jmpq 11724 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,213,252,255,255 // jmpq 11720 <_sk_load_tables_rgb_u16_be_avx+0x53>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
FUNCTION(_sk_byte_tables_avx)
_sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,122,16,2,0 // vbroadcastss 0x2107a(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,174,10,2,0 // vbroadcastss 0x20aae(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -26757,7 +26758,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,98,125,24,13,54,14,2,0 // vbroadcastss 0x20e36(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,13,106,8,2,0 // vbroadcastss 0x2086a(%rip),%ymm9 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -26885,7 +26886,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,235,11,2,0 // vbroadcastss 0x20beb(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,13,31,6,2,0 // vbroadcastss 0x2061f(%rip),%ymm9 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1
.byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2
@@ -27122,36 +27123,36 @@ _sk_parametric_r_avx:
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11
- .byte 196,98,125,24,37,124,8,2,0 // vbroadcastss 0x2087c(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,37,176,2,2,0 // vbroadcastss 0x202b0(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,114,8,2,0 // vbroadcastss 0x20872(%rip),%ymm12 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,37,166,2,2,0 // vbroadcastss 0x202a6(%rip),%ymm12 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,196,7,2,0 // vbroadcastss 0x207c4(%rip),%ymm12 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,37,248,1,2,0 // vbroadcastss 0x201f8(%rip),%ymm12 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,90,8,2,0 // vbroadcastss 0x2085a(%rip),%ymm12 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,37,142,2,2,0 // vbroadcastss 0x2028e(%rip),%ymm12 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,80,8,2,0 // vbroadcastss 0x20850(%rip),%ymm12 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,132,2,2,0 // vbroadcastss 0x20284(%rip),%ymm12 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,65,8,2,0 // vbroadcastss 0x20841(%rip),%ymm12 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,117,2,2,0 // vbroadcastss 0x20275(%rip),%ymm12 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,55,8,2,0 // vbroadcastss 0x20837(%rip),%ymm12 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,107,2,2,0 // vbroadcastss 0x2026b(%rip),%ymm12 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,27,8,2,0 // vbroadcastss 0x2081b(%rip),%ymm11 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,79,2,2,0 // vbroadcastss 0x2024f(%rip),%ymm11 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,17,8,2,0 // vbroadcastss 0x20811(%rip),%ymm11 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,69,2,2,0 // vbroadcastss 0x20245(%rip),%ymm11 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,2,8,2,0 // vbroadcastss 0x20802(%rip),%ymm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,54,2,2,0 // vbroadcastss 0x20236(%rip),%ymm11 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,248,7,2,0 // vbroadcastss 0x207f8(%rip),%ymm11 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,44,2,2,0 // vbroadcastss 0x2022c(%rip),%ymm11 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,233,7,2,0 // vbroadcastss 0x207e9(%rip),%ymm10 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,21,29,2,2,0 // vbroadcastss 0x2021d(%rip),%ymm10 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27159,7 +27160,7 @@ _sk_parametric_r_avx:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,253,6,2,0 // vbroadcastss 0x206fd(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,49,1,2,0 // vbroadcastss 0x20131(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27181,36 +27182,36 @@ _sk_parametric_g_avx:
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11
- .byte 196,98,125,24,37,66,7,2,0 // vbroadcastss 0x20742(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,37,118,1,2,0 // vbroadcastss 0x20176(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,56,7,2,0 // vbroadcastss 0x20738(%rip),%ymm12 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,37,108,1,2,0 // vbroadcastss 0x2016c(%rip),%ymm12 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,138,6,2,0 // vbroadcastss 0x2068a(%rip),%ymm12 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,37,190,0,2,0 // vbroadcastss 0x200be(%rip),%ymm12 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,32,7,2,0 // vbroadcastss 0x20720(%rip),%ymm12 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,37,84,1,2,0 // vbroadcastss 0x20154(%rip),%ymm12 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,22,7,2,0 // vbroadcastss 0x20716(%rip),%ymm12 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,74,1,2,0 // vbroadcastss 0x2014a(%rip),%ymm12 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,7,7,2,0 // vbroadcastss 0x20707(%rip),%ymm12 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,59,1,2,0 // vbroadcastss 0x2013b(%rip),%ymm12 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,253,6,2,0 // vbroadcastss 0x206fd(%rip),%ymm12 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,49,1,2,0 // vbroadcastss 0x20131(%rip),%ymm12 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1
.byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
.byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,225,6,2,0 // vbroadcastss 0x206e1(%rip),%ymm11 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,21,1,2,0 // vbroadcastss 0x20115(%rip),%ymm11 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,215,6,2,0 // vbroadcastss 0x206d7(%rip),%ymm11 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,11,1,2,0 // vbroadcastss 0x2010b(%rip),%ymm11 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,200,6,2,0 // vbroadcastss 0x206c8(%rip),%ymm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,252,0,2,0 // vbroadcastss 0x200fc(%rip),%ymm11 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,190,6,2,0 // vbroadcastss 0x206be(%rip),%ymm11 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,242,0,2,0 // vbroadcastss 0x200f2(%rip),%ymm11 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,175,6,2,0 // vbroadcastss 0x206af(%rip),%ymm10 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,21,227,0,2,0 // vbroadcastss 0x200e3(%rip),%ymm10 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27218,7 +27219,7 @@ _sk_parametric_g_avx:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,195,5,2,0 // vbroadcastss 0x205c3(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,247,255,1,0 // vbroadcastss 0x1fff7(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27240,36 +27241,36 @@ _sk_parametric_b_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 196,98,125,24,37,8,6,2,0 // vbroadcastss 0x20608(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,37,60,0,2,0 // vbroadcastss 0x2003c(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,254,5,2,0 // vbroadcastss 0x205fe(%rip),%ymm12 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,37,50,0,2,0 // vbroadcastss 0x20032(%rip),%ymm12 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,80,5,2,0 // vbroadcastss 0x20550(%rip),%ymm12 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,37,132,255,1,0 // vbroadcastss 0x1ff84(%rip),%ymm12 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,230,5,2,0 // vbroadcastss 0x205e6(%rip),%ymm12 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,37,26,0,2,0 // vbroadcastss 0x2001a(%rip),%ymm12 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,220,5,2,0 // vbroadcastss 0x205dc(%rip),%ymm12 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,16,0,2,0 // vbroadcastss 0x20010(%rip),%ymm12 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,205,5,2,0 // vbroadcastss 0x205cd(%rip),%ymm12 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,1,0,2,0 // vbroadcastss 0x20001(%rip),%ymm12 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,195,5,2,0 // vbroadcastss 0x205c3(%rip),%ymm12 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,247,255,1,0 // vbroadcastss 0x1fff7(%rip),%ymm12 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2
.byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,167,5,2,0 // vbroadcastss 0x205a7(%rip),%ymm11 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,219,255,1,0 // vbroadcastss 0x1ffdb(%rip),%ymm11 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,157,5,2,0 // vbroadcastss 0x2059d(%rip),%ymm11 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,209,255,1,0 // vbroadcastss 0x1ffd1(%rip),%ymm11 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,142,5,2,0 // vbroadcastss 0x2058e(%rip),%ymm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,194,255,1,0 // vbroadcastss 0x1ffc2(%rip),%ymm11 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,132,5,2,0 // vbroadcastss 0x20584(%rip),%ymm11 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,184,255,1,0 // vbroadcastss 0x1ffb8(%rip),%ymm11 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,117,5,2,0 // vbroadcastss 0x20575(%rip),%ymm10 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,21,169,255,1,0 // vbroadcastss 0x1ffa9(%rip),%ymm10 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27277,7 +27278,7 @@ _sk_parametric_b_avx:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,137,4,2,0 // vbroadcastss 0x20489(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,189,254,1,0 // vbroadcastss 0x1febd(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27299,36 +27300,36 @@ _sk_parametric_a_avx:
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11
- .byte 196,98,125,24,37,206,4,2,0 // vbroadcastss 0x204ce(%rip),%ymm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,37,2,255,1,0 // vbroadcastss 0x1ff02(%rip),%ymm12 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,196,4,2,0 // vbroadcastss 0x204c4(%rip),%ymm12 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,37,248,254,1,0 // vbroadcastss 0x1fef8(%rip),%ymm12 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,22,4,2,0 // vbroadcastss 0x20416(%rip),%ymm12 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,37,74,254,1,0 // vbroadcastss 0x1fe4a(%rip),%ymm12 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,172,4,2,0 // vbroadcastss 0x204ac(%rip),%ymm12 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,37,224,254,1,0 // vbroadcastss 0x1fee0(%rip),%ymm12 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,162,4,2,0 // vbroadcastss 0x204a2(%rip),%ymm12 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,214,254,1,0 // vbroadcastss 0x1fed6(%rip),%ymm12 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,147,4,2,0 // vbroadcastss 0x20493(%rip),%ymm12 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,199,254,1,0 // vbroadcastss 0x1fec7(%rip),%ymm12 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,137,4,2,0 // vbroadcastss 0x20489(%rip),%ymm12 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,189,254,1,0 // vbroadcastss 0x1febd(%rip),%ymm12 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3
.byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
.byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,109,4,2,0 // vbroadcastss 0x2046d(%rip),%ymm11 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,161,254,1,0 // vbroadcastss 0x1fea1(%rip),%ymm11 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,99,4,2,0 // vbroadcastss 0x20463(%rip),%ymm11 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,151,254,1,0 // vbroadcastss 0x1fe97(%rip),%ymm11 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,84,4,2,0 // vbroadcastss 0x20454(%rip),%ymm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,29,136,254,1,0 // vbroadcastss 0x1fe88(%rip),%ymm11 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,74,4,2,0 // vbroadcastss 0x2044a(%rip),%ymm11 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,126,254,1,0 // vbroadcastss 0x1fe7e(%rip),%ymm11 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,59,4,2,0 // vbroadcastss 0x2043b(%rip),%ymm10 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,21,111,254,1,0 // vbroadcastss 0x1fe6f(%rip),%ymm10 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27336,7 +27337,7 @@ _sk_parametric_a_avx:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,79,3,2,0 // vbroadcastss 0x2034f(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,131,253,1,0 // vbroadcastss 0x1fd83(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27355,34 +27356,34 @@ _sk_gamma_avx:
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,91,200 // vcvtdq2ps %ymm0,%ymm1
- .byte 196,98,125,24,5,166,3,2,0 // vbroadcastss 0x203a6(%rip),%ymm8 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,5,218,253,1,0 // vbroadcastss 0x1fdda(%rip),%ymm8 # 32570 <_sk_srcover_rgba_8888_sse2_lowp+0x348>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,156,3,2,0 // vbroadcastss 0x2039c(%rip),%ymm9 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,13,208,253,1,0 // vbroadcastss 0x1fdd0(%rip),%ymm9 # 32574 <_sk_srcover_rgba_8888_sse2_lowp+0x34c>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 196,226,125,24,37,238,2,2,0 // vbroadcastss 0x202ee(%rip),%ymm4 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,226,125,24,37,34,253,1,0 // vbroadcastss 0x1fd22(%rip),%ymm4 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,252,86,196 // vorps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,21,133,3,2,0 // vbroadcastss 0x20385(%rip),%ymm10 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,21,185,253,1,0 // vbroadcastss 0x1fdb9(%rip),%ymm10 # 32578 <_sk_srcover_rgba_8888_sse2_lowp+0x350>
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,29,123,3,2,0 // vbroadcastss 0x2037b(%rip),%ymm11 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,29,175,253,1,0 // vbroadcastss 0x1fdaf(%rip),%ymm11 # 3257c <_sk_srcover_rgba_8888_sse2_lowp+0x354>
.byte 196,193,124,89,211 // vmulps %ymm11,%ymm0,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 196,98,125,24,37,109,3,2,0 // vbroadcastss 0x2036d(%rip),%ymm12 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,161,253,1,0 // vbroadcastss 0x1fda1(%rip),%ymm12 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x358>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,99,3,2,0 // vbroadcastss 0x20363(%rip),%ymm13 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,45,151,253,1,0 // vbroadcastss 0x1fd97(%rip),%ymm13 # 32584 <_sk_srcover_rgba_8888_sse2_lowp+0x35c>
.byte 197,148,94,192 // vdivps %ymm0,%ymm13,%ymm0
.byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
.byte 196,98,125,24,48 // vbroadcastss (%rax),%ymm14
.byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,241 // vsubps %ymm1,%ymm0,%ymm6
- .byte 196,98,125,24,61,66,3,2,0 // vbroadcastss 0x20342(%rip),%ymm15 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,61,118,253,1,0 // vbroadcastss 0x1fd76(%rip),%ymm15 # 32588 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,226,125,24,29,56,3,2,0 // vbroadcastss 0x20338(%rip),%ymm3 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,226,125,24,29,108,253,1,0 // vbroadcastss 0x1fd6c(%rip),%ymm3 # 3258c <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 197,204,89,203 // vmulps %ymm3,%ymm6,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,226,125,24,21,43,3,2,0 // vbroadcastss 0x2032b(%rip),%ymm2 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,226,125,24,21,95,253,1,0 // vbroadcastss 0x1fd5f(%rip),%ymm2 # 32590 <_sk_srcover_rgba_8888_sse2_lowp+0x368>
.byte 197,236,92,198 // vsubps %ymm6,%ymm2,%ymm0
- .byte 196,226,125,24,53,34,3,2,0 // vbroadcastss 0x20322(%rip),%ymm6 # 32b64 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,226,125,24,53,86,253,1,0 // vbroadcastss 0x1fd56(%rip),%ymm6 # 32594 <_sk_srcover_rgba_8888_sse2_lowp+0x36c>
.byte 197,204,94,192 // vdivps %ymm0,%ymm6,%ymm0
.byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
@@ -27424,7 +27425,7 @@ _sk_gamma_avx:
.byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
.byte 197,204,94,210 // vdivps %ymm2,%ymm6,%ymm2
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,101,2,2,0 // vbroadcastss 0x20265(%rip),%ymm2 # 32b68 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,21,153,252,1,0 // vbroadcastss 0x1fc99(%rip),%ymm2 # 32598 <_sk_srcover_rgba_8888_sse2_lowp+0x370>
.byte 197,236,89,92,36,128 // vmulps -0x80(%rsp),%ymm2,%ymm3
.byte 197,252,89,226 // vmulps %ymm2,%ymm0,%ymm4
.byte 197,244,89,210 // vmulps %ymm2,%ymm1,%ymm2
@@ -27444,31 +27445,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,33,2,2,0 // vbroadcastss 0x20221(%rip),%ymm8 # 32b6c <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,5,85,252,1,0 // vbroadcastss 0x1fc55(%rip),%ymm8 # 3259c <_sk_srcover_rgba_8888_sse2_lowp+0x374>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,123,1,2,0 // vbroadcastss 0x2017b(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,175,251,1,0 // vbroadcastss 0x1fbaf(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,9,2,2,0 // vbroadcastss 0x20209(%rip),%ymm9 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,13,61,252,1,0 // vbroadcastss 0x1fc3d(%rip),%ymm9 # 325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x378>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,245,1,2,0 // vbroadcastss 0x201f5(%rip),%ymm8 # 32b74 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,5,41,252,1,0 // vbroadcastss 0x1fc29(%rip),%ymm8 # 325a4 <_sk_srcover_rgba_8888_sse2_lowp+0x37c>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,235,1,2,0 // vbroadcastss 0x201eb(%rip),%ymm8 # 32b78 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,98,125,24,5,31,252,1,0 // vbroadcastss 0x1fc1f(%rip),%ymm8 # 325a8 <_sk_srcover_rgba_8888_sse2_lowp+0x380>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,225,1,2,0 // vbroadcastss 0x201e1(%rip),%ymm8 # 32b7c <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,21,252,1,0 // vbroadcastss 0x1fc15(%rip),%ymm8 # 325ac <_sk_srcover_rgba_8888_sse2_lowp+0x384>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,211,1,2,0 // vbroadcastss 0x201d3(%rip),%ymm8 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,24,5,7,252,1,0 // vbroadcastss 0x1fc07(%rip),%ymm8 # 325b0 <_sk_srcover_rgba_8888_sse2_lowp+0x388>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,188,1,2,0 // vbroadcastss 0x201bc(%rip),%ymm9 # 32b84 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,13,240,251,1,0 // vbroadcastss 0x1fbf0(%rip),%ymm9 # 325b4 <_sk_srcover_rgba_8888_sse2_lowp+0x38c>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,177,1,2,0 // vbroadcastss 0x201b1(%rip),%ymm11 # 32b88 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,98,125,24,29,229,251,1,0 // vbroadcastss 0x1fbe5(%rip),%ymm11 # 325b8 <_sk_srcover_rgba_8888_sse2_lowp+0x390>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,167,1,2,0 // vbroadcastss 0x201a7(%rip),%ymm12 # 32b8c <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,98,125,24,37,219,251,1,0 // vbroadcastss 0x1fbdb(%rip),%ymm12 # 325bc <_sk_srcover_rgba_8888_sse2_lowp+0x394>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -27483,9 +27484,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,93,1,2,0 // vbroadcastss 0x2015d(%rip),%ymm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,226,125,24,5,145,251,1,0 // vbroadcastss 0x1fb91(%rip),%ymm0 # 325c0 <_sk_srcover_rgba_8888_sse2_lowp+0x398>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,84,1,2,0 // vbroadcastss 0x20154(%rip),%ymm8 # 32b94 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,98,125,24,5,136,251,1,0 // vbroadcastss 0x1fb88(%rip),%ymm8 # 325c4 <_sk_srcover_rgba_8888_sse2_lowp+0x39c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27501,15 +27502,15 @@ _sk_load_a8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 12aa5 <_sk_load_a8_avx+0x5c>
+ .byte 117,68 // jne 12aa1 <_sk_load_a8_avx+0x5c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,225,1,2,0 // vpand 0x201e1(%rip),%xmm0,%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,133,1,2,0 // vpand 0x20185(%rip),%xmm0,%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,143,0,2,0 // vbroadcastss 0x2008f(%rip),%ymm1 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,13,195,250,1,0 // vbroadcastss 0x1fac3(%rip),%ymm1 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -27521,15 +27522,15 @@ _sk_load_a8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 12a67 <_sk_load_a8_avx+0x1e>
+ .byte 119,174 // ja 12a63 <_sk_load_a8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12b3c <_sk_load_a8_avx+0xf3>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12b38 <_sk_load_a8_avx+0xf3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,143 // jmp 12a67 <_sk_load_a8_avx+0x1e>
+ .byte 235,143 // jmp 12a63 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -27537,7 +27538,7 @@ _sk_load_a8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,103,255,255,255 // jmpq 12a67 <_sk_load_a8_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 12a63 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -27548,7 +27549,7 @@ _sk_load_a8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,44,255,255,255 // jmpq 12a67 <_sk_load_a8_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 12a63 <_sk_load_a8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -27557,7 +27558,7 @@ _sk_load_a8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf012b4c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0920>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf012b48 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0920>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -27579,15 +27580,15 @@ _sk_load_a8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 12bb4 <_sk_load_a8_dst_avx+0x5c>
+ .byte 117,68 // jne 12bb0 <_sk_load_a8_dst_avx+0x5c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,210,0,2,0 // vpand 0x200d2(%rip),%xmm4,%xmm4 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,118,0,2,0 // vpand 0x20076(%rip),%xmm4,%xmm4 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,128,255,1,0 // vbroadcastss 0x1ff80(%rip),%ymm5 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,45,180,249,1,0 // vbroadcastss 0x1f9b4(%rip),%ymm5 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -27599,15 +27600,15 @@ _sk_load_a8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 12b76 <_sk_load_a8_dst_avx+0x1e>
+ .byte 119,174 // ja 12b72 <_sk_load_a8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 12c4c <_sk_load_a8_dst_avx+0xf4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 12c48 <_sk_load_a8_dst_avx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,143 // jmp 12b76 <_sk_load_a8_dst_avx+0x1e>
+ .byte 235,143 // jmp 12b72 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -27615,7 +27616,7 @@ _sk_load_a8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,103,255,255,255 // jmpq 12b76 <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 12b72 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -27626,7 +27627,7 @@ _sk_load_a8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,44,255,255,255 // jmpq 12b76 <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 12b72 <_sk_load_a8_dst_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -27635,7 +27636,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde012c5c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0a30>
+ .byte 232,255,255,255,221 // callq ffffffffde012c58 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0a30>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -27715,7 +27716,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,134,253,1,0 // vbroadcastss 0x1fd86(%rip),%ymm1 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,13,186,247,1,0 // vbroadcastss 0x1f7ba(%rip),%ymm1 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -27738,14 +27739,14 @@ _sk_store_a8_avx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,2,253,1,0 // vbroadcastss 0x1fd02(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,54,247,1,0 // vbroadcastss 0x1f736(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 12dfa <_sk_store_a8_avx+0x44>
+ .byte 117,10 // jne 12df6 <_sk_store_a8_avx+0x44>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27753,25 +27754,25 @@ _sk_store_a8_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 12df6 <_sk_store_a8_avx+0x40>
+ .byte 119,236 // ja 12df2 <_sk_store_a8_avx+0x40>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 12e70 <_sk_store_a8_avx+0xba>
+ .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 12e6c <_sk_store_a8_avx+0xba>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp 12df6 <_sk_store_a8_avx+0x40>
+ .byte 235,202 // jmp 12df2 <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,35,254,1,0 // vpshufb 0x1fe23(%rip),%xmm8,%xmm8 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 196,98,57,0,5,199,253,1,0 // vpshufb 0x1fdc7(%rip),%xmm8,%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp 12df6 <_sk_store_a8_avx+0x40>
+ .byte 235,176 // jmp 12df2 <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,9,254,1,0 // vpshufb 0x1fe09(%rip),%xmm8,%xmm8 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
+ .byte 196,98,57,0,5,173,253,1,0 // vpshufb 0x1fdad(%rip),%xmm8,%xmm8 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp 12df6 <_sk_store_a8_avx+0x40>
+ .byte 235,135 // jmp 12df2 <_sk_store_a8_avx+0x40>
.byte 144 // nop
.byte 179,255 // mov $0xff,%bl
.byte 255 // (bad)
@@ -27804,18 +27805,18 @@ _sk_load_g8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 12eed <_sk_load_g8_avx+0x61>
+ .byte 117,73 // jne 12ee9 <_sk_load_g8_avx+0x61>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,158,253,1,0 // vpand 0x1fd9e(%rip),%xmm0,%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,66,253,1,0 // vpand 0x1fd42(%rip),%xmm0,%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,76,252,1,0 // vbroadcastss 0x1fc4c(%rip),%ymm1 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,13,128,246,1,0 // vbroadcastss 0x1f680(%rip),%ymm1 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,197,251,1,0 // vbroadcastss 0x1fbc5(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,249,245,1,0 // vbroadcastss 0x1f5f9(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -27824,15 +27825,15 @@ _sk_load_g8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 12eaa <_sk_load_g8_avx+0x1e>
+ .byte 119,169 // ja 12ea6 <_sk_load_g8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12f84 <_sk_load_g8_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12f80 <_sk_load_g8_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,138 // jmp 12eaa <_sk_load_g8_avx+0x1e>
+ .byte 235,138 // jmp 12ea6 <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -27840,7 +27841,7 @@ _sk_load_g8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,98,255,255,255 // jmpq 12eaa <_sk_load_g8_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 12ea6 <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -27851,7 +27852,7 @@ _sk_load_g8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,39,255,255,255 // jmpq 12eaa <_sk_load_g8_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 12ea6 <_sk_load_g8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -27860,7 +27861,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf012f94 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0d68>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf012f90 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0d68>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -27882,18 +27883,18 @@ _sk_load_g8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 13001 <_sk_load_g8_dst_avx+0x61>
+ .byte 117,73 // jne 12ffd <_sk_load_g8_dst_avx+0x61>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,138,252,1,0 // vpand 0x1fc8a(%rip),%xmm4,%xmm4 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,46,252,1,0 // vpand 0x1fc2e(%rip),%xmm4,%xmm4 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,56,251,1,0 // vbroadcastss 0x1fb38(%rip),%ymm5 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,45,108,245,1,0 // vbroadcastss 0x1f56c(%rip),%ymm5 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,177,250,1,0 // vbroadcastss 0x1fab1(%rip),%ymm7 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,61,229,244,1,0 // vbroadcastss 0x1f4e5(%rip),%ymm7 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -27902,15 +27903,15 @@ _sk_load_g8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 12fbe <_sk_load_g8_dst_avx+0x1e>
+ .byte 119,169 // ja 12fba <_sk_load_g8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13098 <_sk_load_g8_dst_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13094 <_sk_load_g8_dst_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,138 // jmp 12fbe <_sk_load_g8_dst_avx+0x1e>
+ .byte 235,138 // jmp 12fba <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -27918,7 +27919,7 @@ _sk_load_g8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,98,255,255,255 // jmpq 12fbe <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 12fba <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -27929,7 +27930,7 @@ _sk_load_g8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,39,255,255,255 // jmpq 12fbe <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 12fba <_sk_load_g8_dst_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -27938,7 +27939,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf0130a8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0e7c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf0130a4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0e7c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -28018,10 +28019,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,58,249,1,0 // vbroadcastss 0x1f93a(%rip),%ymm1 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,13,110,243,1,0 // vbroadcastss 0x1f36e(%rip),%ymm1 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,179,248,1,0 // vbroadcastss 0x1f8b3(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,231,242,1,0 // vbroadcastss 0x1f2e7(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -28043,56 +28044,56 @@ _sk_load_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 132a8 <_sk_load_565_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 132a4 <_sk_load_565_avx+0xa1>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,218,248,1,0 // vbroadcastss 0x1f8da(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,24,5,14,243,1,0 // vbroadcastss 0x1f30e(%rip),%ymm0 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,205,248,1,0 // vbroadcastss 0x1f8cd(%rip),%ymm1 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,1,243,1,0 // vbroadcastss 0x1f301(%rip),%ymm1 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,196,248,1,0 // vbroadcastss 0x1f8c4(%rip),%ymm1 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,13,248,242,1,0 // vbroadcastss 0x1f2f8(%rip),%ymm1 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,183,248,1,0 // vbroadcastss 0x1f8b7(%rip),%ymm3 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,29,235,242,1,0 // vbroadcastss 0x1f2eb(%rip),%ymm3 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,174,248,1,0 // vbroadcastss 0x1f8ae(%rip),%ymm3 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,29,226,242,1,0 // vbroadcastss 0x1f2e2(%rip),%ymm3 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,161,248,1,0 // vbroadcastss 0x1f8a1(%rip),%ymm3 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,29,213,242,1,0 // vbroadcastss 0x1f2d5(%rip),%ymm3 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,2,248,1,0 // vbroadcastss 0x1f802(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,54,242,1,0 // vbroadcastss 0x1f236(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 1322c <_sk_load_565_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 13228 <_sk_load_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 1332c <_sk_load_565_avx+0x125>
+ .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 13328 <_sk_load_565_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,74,255,255,255 // jmpq 1322c <_sk_load_565_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 13228 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,45,255,255,255 // jmpq 1322c <_sk_load_565_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 13228 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,0,255,255,255 // jmpq 1322c <_sk_load_565_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 13228 <_sk_load_565_avx+0x25>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -28124,56 +28125,56 @@ _sk_load_565_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 133e9 <_sk_load_565_dst_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 133e5 <_sk_load_565_dst_avx+0xa1>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,153,247,1,0 // vbroadcastss 0x1f799(%rip),%ymm4 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,24,37,205,241,1,0 // vbroadcastss 0x1f1cd(%rip),%ymm4 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,140,247,1,0 // vbroadcastss 0x1f78c(%rip),%ymm5 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,45,192,241,1,0 // vbroadcastss 0x1f1c0(%rip),%ymm5 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,131,247,1,0 // vbroadcastss 0x1f783(%rip),%ymm5 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,45,183,241,1,0 // vbroadcastss 0x1f1b7(%rip),%ymm5 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,118,247,1,0 // vbroadcastss 0x1f776(%rip),%ymm7 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,61,170,241,1,0 // vbroadcastss 0x1f1aa(%rip),%ymm7 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,109,247,1,0 // vbroadcastss 0x1f76d(%rip),%ymm7 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,61,161,241,1,0 // vbroadcastss 0x1f1a1(%rip),%ymm7 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,96,247,1,0 // vbroadcastss 0x1f760(%rip),%ymm7 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,61,148,241,1,0 // vbroadcastss 0x1f194(%rip),%ymm7 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,193,246,1,0 // vbroadcastss 0x1f6c1(%rip),%ymm7 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,61,245,240,1,0 // vbroadcastss 0x1f0f5(%rip),%ymm7 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 1336d <_sk_load_565_dst_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 13369 <_sk_load_565_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13470 <_sk_load_565_dst_avx+0x128>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 1346c <_sk_load_565_dst_avx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,74,255,255,255 // jmpq 1336d <_sk_load_565_dst_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 13369 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,45,255,255,255 // jmpq 1336d <_sk_load_565_dst_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 13369 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,0,255,255,255 // jmpq 1336d <_sk_load_565_dst_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 13369 <_sk_load_565_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28266,23 +28267,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,105,245,1,0 // vbroadcastss 0x1f569(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,24,5,157,239,1,0 // vbroadcastss 0x1ef9d(%rip),%ymm0 # 32554 <_sk_srcover_rgba_8888_sse2_lowp+0x32c>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,92,245,1,0 // vbroadcastss 0x1f55c(%rip),%ymm1 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,144,239,1,0 // vbroadcastss 0x1ef90(%rip),%ymm1 # 32558 <_sk_srcover_rgba_8888_sse2_lowp+0x330>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,83,245,1,0 // vbroadcastss 0x1f553(%rip),%ymm1 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,13,135,239,1,0 // vbroadcastss 0x1ef87(%rip),%ymm1 # 3255c <_sk_srcover_rgba_8888_sse2_lowp+0x334>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,70,245,1,0 // vbroadcastss 0x1f546(%rip),%ymm3 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,29,122,239,1,0 // vbroadcastss 0x1ef7a(%rip),%ymm3 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x338>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,61,245,1,0 // vbroadcastss 0x1f53d(%rip),%ymm3 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,29,113,239,1,0 // vbroadcastss 0x1ef71(%rip),%ymm3 # 32564 <_sk_srcover_rgba_8888_sse2_lowp+0x33c>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,48,245,1,0 // vbroadcastss 0x1f530(%rip),%ymm3 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,29,100,239,1,0 // vbroadcastss 0x1ef64(%rip),%ymm3 # 32568 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,145,244,1,0 // vbroadcastss 0x1f491(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,197,238,1,0 // vbroadcastss 0x1eec5(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -28301,14 +28302,14 @@ _sk_store_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,88,245,1,0 // vbroadcastss 0x1f558(%rip),%ymm8 # 32b98 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,98,125,24,5,140,239,1,0 // vbroadcastss 0x1ef8c(%rip),%ymm8 # 325c8 <_sk_srcover_rgba_8888_sse2_lowp+0x3a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
.byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,98,125,24,21,49,245,1,0 // vbroadcastss 0x1f531(%rip),%ymm10 # 32b9c <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 196,98,125,24,21,101,239,1,0 // vbroadcastss 0x1ef65(%rip),%ymm10 # 325cc <_sk_srcover_rgba_8888_sse2_lowp+0x3a4>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11
@@ -28322,7 +28323,7 @@ _sk_store_565_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 136bb <_sk_store_565_avx+0x9a>
+ .byte 117,10 // jne 136b7 <_sk_store_565_avx+0x9a>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28330,22 +28331,22 @@ _sk_store_565_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 136b7 <_sk_store_565_avx+0x96>
+ .byte 119,236 // ja 136b3 <_sk_store_565_avx+0x96>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 13718 <_sk_store_565_avx+0xf7>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 13714 <_sk_store_565_avx+0xf7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 136b7 <_sk_store_565_avx+0x96>
+ .byte 235,207 // jmp 136b3 <_sk_store_565_avx+0x96>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 136b7 <_sk_store_565_avx+0x96>
+ .byte 235,191 // jmp 136b3 <_sk_store_565_avx+0x96>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 136b7 <_sk_store_565_avx+0x96>
+ .byte 235,159 // jmp 136b3 <_sk_store_565_avx+0x96>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -28363,7 +28364,7 @@ _sk_store_565_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1013730 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe1504>
+ .byte 232,255,255,255,224 // callq ffffffffe101372c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe1504>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -28380,31 +28381,31 @@ _sk_load_4444_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 137ed <_sk_load_4444_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 137e9 <_sk_load_4444_avx+0xb9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,41,244,1,0 // vbroadcastss 0x1f429(%rip),%ymm0 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,226,125,24,5,93,238,1,0 // vbroadcastss 0x1ee5d(%rip),%ymm0 # 325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,28,244,1,0 // vbroadcastss 0x1f41c(%rip),%ymm1 # 32ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,226,125,24,13,80,238,1,0 // vbroadcastss 0x1ee50(%rip),%ymm1 # 325d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,19,244,1,0 // vbroadcastss 0x1f413(%rip),%ymm1 # 32ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,24,13,71,238,1,0 // vbroadcastss 0x1ee47(%rip),%ymm1 # 325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,6,244,1,0 // vbroadcastss 0x1f406(%rip),%ymm2 # 32bac <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,21,58,238,1,0 // vbroadcastss 0x1ee3a(%rip),%ymm2 # 325dc <_sk_srcover_rgba_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,253,243,1,0 // vbroadcastss 0x1f3fd(%rip),%ymm2 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,21,49,238,1,0 // vbroadcastss 0x1ee31(%rip),%ymm2 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,240,243,1,0 // vbroadcastss 0x1f3f0(%rip),%ymm8 # 32bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,98,125,24,5,36,238,1,0 // vbroadcastss 0x1ee24(%rip),%ymm8 # 325e4 <_sk_srcover_rgba_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,230,243,1,0 // vbroadcastss 0x1f3e6(%rip),%ymm8 # 32bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,24,5,26,238,1,0 // vbroadcastss 0x1ee1a(%rip),%ymm8 # 325e8 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,216,243,1,0 // vbroadcastss 0x1f3d8(%rip),%ymm8 # 32bbc <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,12,238,1,0 // vbroadcastss 0x1ee0c(%rip),%ymm8 # 325ec <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28413,27 +28414,27 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 13759 <_sk_load_4444_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 13755 <_sk_load_4444_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13874 <_sk_load_4444_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13870 <_sk_load_4444_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,50,255,255,255 // jmpq 13759 <_sk_load_4444_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 13755 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,21,255,255,255 // jmpq 13759 <_sk_load_4444_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 13755 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,232,254,255,255 // jmpq 13759 <_sk_load_4444_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 13755 <_sk_load_4444_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28469,31 +28470,31 @@ _sk_load_4444_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 13949 <_sk_load_4444_dst_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 13945 <_sk_load_4444_dst_avx+0xb9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,205,242,1,0 // vbroadcastss 0x1f2cd(%rip),%ymm4 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,226,125,24,37,1,237,1,0 // vbroadcastss 0x1ed01(%rip),%ymm4 # 325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a8>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,192,242,1,0 // vbroadcastss 0x1f2c0(%rip),%ymm5 # 32ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,226,125,24,45,244,236,1,0 // vbroadcastss 0x1ecf4(%rip),%ymm5 # 325d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3ac>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,183,242,1,0 // vbroadcastss 0x1f2b7(%rip),%ymm5 # 32ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,24,45,235,236,1,0 // vbroadcastss 0x1eceb(%rip),%ymm5 # 325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3b0>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,170,242,1,0 // vbroadcastss 0x1f2aa(%rip),%ymm6 # 32bac <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,53,222,236,1,0 // vbroadcastss 0x1ecde(%rip),%ymm6 # 325dc <_sk_srcover_rgba_8888_sse2_lowp+0x3b4>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,161,242,1,0 // vbroadcastss 0x1f2a1(%rip),%ymm6 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,53,213,236,1,0 // vbroadcastss 0x1ecd5(%rip),%ymm6 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3b8>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,148,242,1,0 // vbroadcastss 0x1f294(%rip),%ymm8 # 32bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,98,125,24,5,200,236,1,0 // vbroadcastss 0x1ecc8(%rip),%ymm8 # 325e4 <_sk_srcover_rgba_8888_sse2_lowp+0x3bc>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,138,242,1,0 // vbroadcastss 0x1f28a(%rip),%ymm8 # 32bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,24,5,190,236,1,0 // vbroadcastss 0x1ecbe(%rip),%ymm8 # 325e8 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,124,242,1,0 // vbroadcastss 0x1f27c(%rip),%ymm8 # 32bbc <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,176,236,1,0 // vbroadcastss 0x1ecb0(%rip),%ymm8 # 325ec <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28502,27 +28503,27 @@ _sk_load_4444_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 138b5 <_sk_load_4444_dst_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 138b1 <_sk_load_4444_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 139d0 <_sk_load_4444_dst_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 139cc <_sk_load_4444_dst_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,50,255,255,255 // jmpq 138b5 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 138b1 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,21,255,255,255 // jmpq 138b5 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 138b1 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,232,254,255,255 // jmpq 138b5 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 138b1 <_sk_load_4444_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28615,25 +28616,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,133,240,1,0 // vbroadcastss 0x1f085(%rip),%ymm0 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,226,125,24,5,185,234,1,0 // vbroadcastss 0x1eab9(%rip),%ymm0 # 325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a8>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,120,240,1,0 // vbroadcastss 0x1f078(%rip),%ymm1 # 32ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,226,125,24,13,172,234,1,0 // vbroadcastss 0x1eaac(%rip),%ymm1 # 325d4 <_sk_srcover_rgba_8888_sse2_lowp+0x3ac>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,111,240,1,0 // vbroadcastss 0x1f06f(%rip),%ymm1 # 32ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,24,13,163,234,1,0 // vbroadcastss 0x1eaa3(%rip),%ymm1 # 325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3b0>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,98,240,1,0 // vbroadcastss 0x1f062(%rip),%ymm2 # 32bac <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,21,150,234,1,0 // vbroadcastss 0x1ea96(%rip),%ymm2 # 325dc <_sk_srcover_rgba_8888_sse2_lowp+0x3b4>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,89,240,1,0 // vbroadcastss 0x1f059(%rip),%ymm2 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,21,141,234,1,0 // vbroadcastss 0x1ea8d(%rip),%ymm2 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3b8>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,76,240,1,0 // vbroadcastss 0x1f04c(%rip),%ymm8 # 32bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,98,125,24,5,128,234,1,0 // vbroadcastss 0x1ea80(%rip),%ymm8 # 325e4 <_sk_srcover_rgba_8888_sse2_lowp+0x3bc>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,66,240,1,0 // vbroadcastss 0x1f042(%rip),%ymm8 # 32bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,24,5,118,234,1,0 // vbroadcastss 0x1ea76(%rip),%ymm8 # 325e8 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,52,240,1,0 // vbroadcastss 0x1f034(%rip),%ymm8 # 32bbc <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,5,104,234,1,0 // vbroadcastss 0x1ea68(%rip),%ymm8 # 325ec <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -28654,7 +28655,7 @@ _sk_store_4444_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,8,240,1,0 // vbroadcastss 0x1f008(%rip),%ymm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,60,234,1,0 // vbroadcastss 0x1ea3c(%rip),%ymm8 # 325f0 <_sk_srcover_rgba_8888_sse2_lowp+0x3c8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10
@@ -28681,7 +28682,7 @@ _sk_store_4444_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 13c51 <_sk_store_4444_avx+0xb8>
+ .byte 117,10 // jne 13c4d <_sk_store_4444_avx+0xb8>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28689,22 +28690,22 @@ _sk_store_4444_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 13c4d <_sk_store_4444_avx+0xb4>
+ .byte 119,236 // ja 13c49 <_sk_store_4444_avx+0xb4>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 13cb0 <_sk_store_4444_avx+0x117>
+ .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 13cac <_sk_store_4444_avx+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 13c4d <_sk_store_4444_avx+0xb4>
+ .byte 235,207 // jmp 13c49 <_sk_store_4444_avx+0xb4>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 13c4d <_sk_store_4444_avx+0xb4>
+ .byte 235,191 // jmp 13c49 <_sk_store_4444_avx+0xb4>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 13c4d <_sk_store_4444_avx+0xb4>
+ .byte 235,159 // jmp 13c49 <_sk_store_4444_avx+0xb4>
.byte 102,144 // xchg %ax,%ax
.byte 197,255,255 // (bad)
.byte 255,214 // callq *%rsi
@@ -28740,12 +28741,12 @@ _sk_load_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 13d73 <_sk_load_8888_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 13d6f <_sk_load_8888_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,198,235,1,0 // vmovapd 0x1ebc6(%rip),%ymm10 # 328c0 <_sk_srcover_rgba_8888_sse2_lowp+0x694>
+ .byte 197,125,40,21,10,237,1,0 // vmovapd 0x1ed0a(%rip),%ymm10 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x7d8>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,20,238,1,0 // vbroadcastss 0x1ee14(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,72,232,1,0 // vbroadcastss 0x1e848(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -28772,21 +28773,21 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 13cf2 <_sk_load_8888_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 13cee <_sk_load_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13e28 <_sk_load_8888_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13e24 <_sk_load_8888_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 13cf2 <_sk_load_8888_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 13cee <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 13cf2 <_sk_load_8888_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 13cee <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -28800,9 +28801,9 @@ _sk_load_8888_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 13cf2 <_sk_load_8888_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 13cee <_sk_load_8888_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 13e29 <_sk_load_8888_avx+0x15d>
+ .byte 120,255 // js 13e25 <_sk_load_8888_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -28835,12 +28836,12 @@ _sk_load_8888_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 13eeb <_sk_load_8888_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 13ee7 <_sk_load_8888_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,110,234,1,0 // vmovapd 0x1ea6e(%rip),%ymm10 # 328e0 <_sk_srcover_rgba_8888_sse2_lowp+0x6b4>
+ .byte 197,125,40,21,178,235,1,0 // vmovapd 0x1ebb2(%rip),%ymm10 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x7f8>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,156,236,1,0 // vbroadcastss 0x1ec9c(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,208,230,1,0 // vbroadcastss 0x1e6d0(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -28867,21 +28868,21 @@ _sk_load_8888_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 13e6a <_sk_load_8888_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 13e66 <_sk_load_8888_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13fa0 <_sk_load_8888_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13f9c <_sk_load_8888_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 13e6a <_sk_load_8888_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 13e66 <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 13e6a <_sk_load_8888_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 13e66 <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -28895,9 +28896,9 @@ _sk_load_8888_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 13e6a <_sk_load_8888_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 13e66 <_sk_load_8888_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 13fa1 <_sk_load_8888_dst_avx+0x15d>
+ .byte 120,255 // js 13f9d <_sk_load_8888_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -28975,10 +28976,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,64,232,1,0 // vmovaps 0x1e840(%rip),%ymm10 # 32900 <_sk_srcover_rgba_8888_sse2_lowp+0x6d4>
+ .byte 197,124,40,21,132,233,1,0 // vmovaps 0x1e984(%rip),%ymm10 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x818>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,78,234,1,0 // vbroadcastss 0x1ea4e(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,13,130,228,1,0 // vbroadcastss 0x1e482(%rip),%ymm9 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -29015,7 +29016,7 @@ _sk_store_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,122,233,1,0 // vbroadcastss 0x1e97a(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,174,227,1,0 // vbroadcastss 0x1e3ae(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -29040,7 +29041,7 @@ _sk_store_8888_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 141e8 <_sk_store_8888_avx+0xae>
+ .byte 117,10 // jne 141e4 <_sk_store_8888_avx+0xae>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -29048,17 +29049,17 @@ _sk_store_8888_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 141e4 <_sk_store_8888_avx+0xaa>
+ .byte 119,236 // ja 141e0 <_sk_store_8888_avx+0xaa>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 14258 <_sk_store_8888_avx+0x11e>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 14254 <_sk_store_8888_avx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 141e4 <_sk_store_8888_avx+0xaa>
+ .byte 235,208 // jmp 141e0 <_sk_store_8888_avx+0xaa>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 141e4 <_sk_store_8888_avx+0xaa>
+ .byte 235,192 // jmp 141e0 <_sk_store_8888_avx+0xaa>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -29066,7 +29067,7 @@ _sk_store_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 141e4 <_sk_store_8888_avx+0xaa>
+ .byte 235,143 // jmp 141e0 <_sk_store_8888_avx+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -29078,7 +29079,7 @@ _sk_store_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb01426c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe2040>
+ .byte 232,255,255,255,218 // callq ffffffffdb014268 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe2040>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -29098,12 +29099,12 @@ _sk_load_bgra_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 1431b <_sk_load_bgra_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 14317 <_sk_load_bgra_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,126,230,1,0 // vmovapd 0x1e67e(%rip),%ymm10 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x6f4>
+ .byte 197,125,40,21,194,231,1,0 // vmovapd 0x1e7c2(%rip),%ymm10 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,108,232,1,0 // vbroadcastss 0x1e86c(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,160,226,1,0 // vbroadcastss 0x1e2a0(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -29130,21 +29131,21 @@ _sk_load_bgra_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 1429a <_sk_load_bgra_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 14296 <_sk_load_bgra_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 143d0 <_sk_load_bgra_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 143cc <_sk_load_bgra_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 1429a <_sk_load_bgra_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 14296 <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 1429a <_sk_load_bgra_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 14296 <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -29158,9 +29159,9 @@ _sk_load_bgra_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 1429a <_sk_load_bgra_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 14296 <_sk_load_bgra_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 143d1 <_sk_load_bgra_avx+0x15d>
+ .byte 120,255 // js 143cd <_sk_load_bgra_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -29193,12 +29194,12 @@ _sk_load_bgra_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 14493 <_sk_load_bgra_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 1448f <_sk_load_bgra_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,38,229,1,0 // vmovapd 0x1e526(%rip),%ymm10 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x714>
+ .byte 197,125,40,21,106,230,1,0 // vmovapd 0x1e66a(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,244,230,1,0 // vbroadcastss 0x1e6f4(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,5,40,225,1,0 // vbroadcastss 0x1e128(%rip),%ymm8 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -29225,21 +29226,21 @@ _sk_load_bgra_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 14412 <_sk_load_bgra_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 1440e <_sk_load_bgra_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14548 <_sk_load_bgra_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14544 <_sk_load_bgra_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 14412 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 1440e <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 14412 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 1440e <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -29253,9 +29254,9 @@ _sk_load_bgra_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 14412 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 1440e <_sk_load_bgra_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 14549 <_sk_load_bgra_dst_avx+0x15d>
+ .byte 120,255 // js 14545 <_sk_load_bgra_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -29333,10 +29334,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,248,226,1,0 // vmovaps 0x1e2f8(%rip),%ymm9 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x734>
+ .byte 197,124,40,13,60,228,1,0 // vmovaps 0x1e43c(%rip),%ymm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,166,228,1,0 // vbroadcastss 0x1e4a6(%rip),%ymm10 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,21,218,222,1,0 // vbroadcastss 0x1deda(%rip),%ymm10 # 32550 <_sk_srcover_rgba_8888_sse2_lowp+0x328>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -29373,7 +29374,7 @@ _sk_store_bgra_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,210,227,1,0 // vbroadcastss 0x1e3d2(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,5,6,222,1,0 // vbroadcastss 0x1de06(%rip),%ymm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -29398,7 +29399,7 @@ _sk_store_bgra_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 14790 <_sk_store_bgra_avx+0xae>
+ .byte 117,10 // jne 1478c <_sk_store_bgra_avx+0xae>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -29406,17 +29407,17 @@ _sk_store_bgra_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 1478c <_sk_store_bgra_avx+0xaa>
+ .byte 119,236 // ja 14788 <_sk_store_bgra_avx+0xaa>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 14800 <_sk_store_bgra_avx+0x11e>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 147fc <_sk_store_bgra_avx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 1478c <_sk_store_bgra_avx+0xaa>
+ .byte 235,208 // jmp 14788 <_sk_store_bgra_avx+0xaa>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 1478c <_sk_store_bgra_avx+0xaa>
+ .byte 235,192 // jmp 14788 <_sk_store_bgra_avx+0xaa>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -29424,7 +29425,7 @@ _sk_store_bgra_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 1478c <_sk_store_bgra_avx+0xaa>
+ .byte 235,143 // jmp 14788 <_sk_store_bgra_avx+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -29436,7 +29437,7 @@ _sk_store_bgra_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb014814 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe25e8>
+ .byte 232,255,255,255,218 // callq ffffffffdb014810 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe25e8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -29461,7 +29462,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 14a77 <_sk_load_f16_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 14a73 <_sk_load_f16_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -29478,14 +29479,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,7,236,1,0 // vmovddup 0x1ec07(%rip),%xmm10 # 334b8 <_sk_srcover_rgba_8888_sse2_lowp+0x128c>
+ .byte 197,123,18,21,155,235,1,0 // vmovddup 0x1eb9b(%rip),%xmm10 # 33448 <_sk_srcover_rgba_8888_sse2_lowp+0x1220>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,113,227,1,0 // vbroadcastss 0x1e371(%rip),%xmm11 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 196,98,121,24,29,165,221,1,0 // vbroadcastss 0x1dda5(%rip),%xmm11 # 32660 <_sk_srcover_rgba_8888_sse2_lowp+0x438>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,230,235,1,0 // vmovddup 0x1ebe6(%rip),%xmm12 # 334c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1294>
+ .byte 197,123,18,37,122,235,1,0 // vmovddup 0x1eb7a(%rip),%xmm12 # 33450 <_sk_srcover_rgba_8888_sse2_lowp+0x1228>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -29494,7 +29495,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,43,227,1,0 // vbroadcastss 0x1e32b(%rip),%xmm3 # 32c34 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
+ .byte 196,226,121,24,29,95,221,1,0 // vbroadcastss 0x1dd5f(%rip),%xmm3 # 32664 <_sk_srcover_rgba_8888_sse2_lowp+0x43c>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -29573,29 +29574,29 @@ _sk_load_f16_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 14add <_sk_load_f16_avx+0x2c1>
+ .byte 116,85 // je 14ad9 <_sk_load_f16_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 14add <_sk_load_f16_avx+0x2c1>
+ .byte 114,72 // jb 14ad9 <_sk_load_f16_avx+0x2c1>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 14aea <_sk_load_f16_avx+0x2ce>
+ .byte 116,72 // je 14ae6 <_sk_load_f16_avx+0x2ce>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 14aea <_sk_load_f16_avx+0x2ce>
+ .byte 114,59 // jb 14ae6 <_sk_load_f16_avx+0x2ce>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 14873 <_sk_load_f16_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 1486f <_sk_load_f16_avx+0x57>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 14873 <_sk_load_f16_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 1486f <_sk_load_f16_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 14873 <_sk_load_f16_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 1486f <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,137,253,255,255 // jmpq 14873 <_sk_load_f16_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 1486f <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,128,253,255,255 // jmpq 14873 <_sk_load_f16_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 1486f <_sk_load_f16_avx+0x57>
HIDDEN _sk_load_f16_dst_avx
.globl _sk_load_f16_dst_avx
@@ -29614,7 +29615,7 @@ _sk_load_f16_dst_avx:
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 14d4e <_sk_load_f16_dst_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 14d4a <_sk_load_f16_dst_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -29631,14 +29632,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,48,233,1,0 // vmovddup 0x1e930(%rip),%xmm10 # 334b8 <_sk_srcover_rgba_8888_sse2_lowp+0x128c>
+ .byte 197,123,18,21,196,232,1,0 // vmovddup 0x1e8c4(%rip),%xmm10 # 33448 <_sk_srcover_rgba_8888_sse2_lowp+0x1220>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,154,224,1,0 // vbroadcastss 0x1e09a(%rip),%xmm11 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 196,98,121,24,29,206,218,1,0 // vbroadcastss 0x1dace(%rip),%xmm11 # 32660 <_sk_srcover_rgba_8888_sse2_lowp+0x438>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,15,233,1,0 // vmovddup 0x1e90f(%rip),%xmm12 # 334c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1294>
+ .byte 197,123,18,37,163,232,1,0 // vmovddup 0x1e8a3(%rip),%xmm12 # 33450 <_sk_srcover_rgba_8888_sse2_lowp+0x1228>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -29647,7 +29648,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,84,224,1,0 // vbroadcastss 0x1e054(%rip),%xmm7 # 32c34 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
+ .byte 196,226,121,24,61,136,218,1,0 // vbroadcastss 0x1da88(%rip),%xmm7 # 32664 <_sk_srcover_rgba_8888_sse2_lowp+0x43c>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -29726,29 +29727,29 @@ _sk_load_f16_dst_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 14db4 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 116,85 // je 14db0 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 14db4 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 114,72 // jb 14db0 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 14dc1 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 116,72 // je 14dbd <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 14dc1 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 114,59 // jb 14dbd <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 14b4a <_sk_load_f16_dst_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 14b46 <_sk_load_f16_dst_avx+0x57>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 14b4a <_sk_load_f16_dst_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 14b46 <_sk_load_f16_dst_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 14b4a <_sk_load_f16_dst_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 14b46 <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,137,253,255,255 // jmpq 14b4a <_sk_load_f16_dst_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 14b46 <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,128,253,255,255 // jmpq 14b4a <_sk_load_f16_dst_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 14b46 <_sk_load_f16_dst_avx+0x57>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -29827,14 +29828,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,29,150,229,1,0 // vmovddup 0x1e596(%rip),%xmm11 # 334b8 <_sk_srcover_rgba_8888_sse2_lowp+0x128c>
+ .byte 197,123,18,29,42,229,1,0 // vmovddup 0x1e52a(%rip),%xmm11 # 33448 <_sk_srcover_rgba_8888_sse2_lowp+0x1220>
.byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3
- .byte 196,98,121,24,37,0,221,1,0 // vbroadcastss 0x1dd00(%rip),%xmm12 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 196,98,121,24,37,52,215,1,0 // vbroadcastss 0x1d734(%rip),%xmm12 # 32660 <_sk_srcover_rgba_8888_sse2_lowp+0x438>
.byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13
.byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
.byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8
.byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- .byte 197,123,18,45,117,229,1,0 // vmovddup 0x1e575(%rip),%xmm13 # 334c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1294>
+ .byte 197,123,18,45,9,229,1,0 // vmovddup 0x1e509(%rip),%xmm13 # 33450 <_sk_srcover_rgba_8888_sse2_lowp+0x1228>
.byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
@@ -29843,7 +29844,7 @@ _sk_gather_f16_avx:
.byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,186,220,1,0 // vbroadcastss 0x1dcba(%rip),%xmm3 # 32c34 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
+ .byte 196,226,121,24,29,238,214,1,0 // vbroadcastss 0x1d6ee(%rip),%xmm3 # 32664 <_sk_srcover_rgba_8888_sse2_lowp+0x43c>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -29933,12 +29934,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,240,218,1,0 // vbroadcastss 0x1daf0(%rip),%ymm8 # 32c04 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,5,36,213,1,0 // vbroadcastss 0x1d524(%rip),%ymm8 # 32634 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,22,219,1,0 // vbroadcastss 0x1db16(%rip),%ymm10 # 32c38 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
+ .byte 196,98,125,24,21,74,213,1,0 // vbroadcastss 0x1d54a(%rip),%ymm10 # 32668 <_sk_srcover_rgba_8888_sse2_lowp+0x440>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,6,219,1,0 // vbroadcastss 0x1db06(%rip),%xmm9 # 32c3c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+ .byte 196,98,121,24,13,58,213,1,0 // vbroadcastss 0x1d53a(%rip),%xmm9 # 3266c <_sk_srcover_rgba_8888_sse2_lowp+0x444>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -29949,7 +29950,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,201,218,1,0 // vbroadcastss 0x1dac9(%rip),%xmm11 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
+ .byte 196,98,121,24,29,253,212,1,0 // vbroadcastss 0x1d4fd(%rip),%xmm11 # 32670 <_sk_srcover_rgba_8888_sse2_lowp+0x448>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -30032,7 +30033,7 @@ _sk_store_f16_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 1534e <_sk_store_f16_avx+0x262>
+ .byte 117,68 // jne 1534a <_sk_store_f16_avx+0x262>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -30048,22 +30049,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,203 // je 15325 <_sk_store_f16_avx+0x239>
+ .byte 116,203 // je 15321 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,190 // jb 15325 <_sk_store_f16_avx+0x239>
+ .byte 114,190 // jb 15321 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,181 // je 15325 <_sk_store_f16_avx+0x239>
+ .byte 116,181 // je 15321 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,168 // jb 15325 <_sk_store_f16_avx+0x239>
+ .byte 114,168 // jb 15321 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,159 // je 15325 <_sk_store_f16_avx+0x239>
+ .byte 116,159 // je 15321 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,146 // jb 15325 <_sk_store_f16_avx+0x239>
+ .byte 114,146 // jb 15321 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,137 // jmp 15325 <_sk_store_f16_avx+0x239>
+ .byte 235,137 // jmp 15321 <_sk_store_f16_avx+0x239>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -30078,7 +30079,7 @@ _sk_load_u16_be_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,12,1,0,0 // jne 154cf <_sk_load_u16_be_avx+0x133>
+ .byte 15,133,12,1,0,0 // jne 154cb <_sk_load_u16_be_avx+0x133>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -30100,7 +30101,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,8,215,1,0 // vbroadcastss 0x1d708(%rip),%ymm9 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,13,60,209,1,0 // vbroadcastss 0x1d13c(%rip),%ymm9 # 3256c <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -30137,29 +30138,29 @@ _sk_load_u16_be_avx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 15535 <_sk_load_u16_be_avx+0x199>
+ .byte 116,85 // je 15531 <_sk_load_u16_be_avx+0x199>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 15535 <_sk_load_u16_be_avx+0x199>
+ .byte 114,72 // jb 15531 <_sk_load_u16_be_avx+0x199>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 15542 <_sk_load_u16_be_avx+0x1a6>
+ .byte 116,72 // je 1553e <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 15542 <_sk_load_u16_be_avx+0x1a6>
+ .byte 114,59 // jb 1553e <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,198,254,255,255 // je 153de <_sk_load_u16_be_avx+0x42>
+ .byte 15,132,198,254,255,255 // je 153da <_sk_load_u16_be_avx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,181,254,255,255 // jb 153de <_sk_load_u16_be_avx+0x42>
+ .byte 15,130,181,254,255,255 // jb 153da <_sk_load_u16_be_avx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,169,254,255,255 // jmpq 153de <_sk_load_u16_be_avx+0x42>
+ .byte 233,169,254,255,255 // jmpq 153da <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,156,254,255,255 // jmpq 153de <_sk_load_u16_be_avx+0x42>
+ .byte 233,156,254,255,255 // jmpq 153da <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,147,254,255,255 // jmpq 153de <_sk_load_u16_be_avx+0x42>
+ .byte 233,147,254,255,255 // jmpq 153da <_sk_load_u16_be_avx+0x42>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -30176,7 +30177,7 @@ _sk_load_rgb_u16_be_avx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne 15673 <_sk_load_rgb_u16_be_avx+0x128>
+ .byte 15,133,253,0,0,0 // jne 1566f <_sk_load_rgb_u16_be_avx+0x128>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -30204,7 +30205,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,55,213,1,0 // vbroadcastss 0x1d537(%rip),%ymm9 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,13,107,207,1,0 // vbroadcastss 0x1cf6b(%rip),%ymm9 # 3256c <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -30226,69 +30227,69 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,55,212,1,0 // vbroadcastss 0x1d437(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,107,206,1,0 // vbroadcastss 0x1ce6b(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 156ab <_sk_load_rgb_u16_be_avx+0x160>
+ .byte 117,31 // jne 156a7 <_sk_load_rgb_u16_be_avx+0x160>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,0,255,255,255 // jmpq 155ab <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,0,255,255,255 // jmpq 155a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 156f5 <_sk_load_rgb_u16_be_avx+0x1aa>
+ .byte 114,48 // jb 156f1 <_sk_load_rgb_u16_be_avx+0x1aa>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 1570f <_sk_load_rgb_u16_be_avx+0x1c4>
+ .byte 117,48 // jne 1570b <_sk_load_rgb_u16_be_avx+0x1c4>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,182,254,255,255 // jmpq 155ab <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,182,254,255,255 // jmpq 155a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,156,254,255,255 // jmpq 155ab <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,156,254,255,255 // jmpq 155a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 15750 <_sk_load_rgb_u16_be_avx+0x205>
+ .byte 114,39 // jb 1574c <_sk_load_rgb_u16_be_avx+0x205>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 15761 <_sk_load_rgb_u16_be_avx+0x216>
+ .byte 117,30 // jne 1575d <_sk_load_rgb_u16_be_avx+0x216>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,91,254,255,255 // jmpq 155ab <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,91,254,255,255 // jmpq 155a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,74,254,255,255 // jmpq 155ab <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,74,254,255,255 // jmpq 155a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 15794 <_sk_load_rgb_u16_be_avx+0x249>
+ .byte 114,25 // jb 15790 <_sk_load_rgb_u16_be_avx+0x249>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,23,254,255,255 // jmpq 155ab <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,23,254,255,255 // jmpq 155a7 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,14,254,255,255 // jmpq 155ab <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,14,254,255,255 // jmpq 155a7 <_sk_load_rgb_u16_be_avx+0x60>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -30302,7 +30303,7 @@ _sk_store_u16_be_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,0,212,1,0 // vbroadcastss 0x1d400(%rip),%ymm8 # 32bc4 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,52,206,1,0 // vbroadcastss 0x1ce34(%rip),%ymm8 # 325f4 <_sk_srcover_rgba_8888_sse2_lowp+0x3cc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -30340,7 +30341,7 @@ _sk_store_u16_be_avx:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 158a8 <_sk_store_u16_be_avx+0x10b>
+ .byte 117,31 // jne 158a4 <_sk_store_u16_be_avx+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -30349,22 +30350,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 158a4 <_sk_store_u16_be_avx+0x107>
+ .byte 116,240 // je 158a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 158a4 <_sk_store_u16_be_avx+0x107>
+ .byte 114,227 // jb 158a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 158a4 <_sk_store_u16_be_avx+0x107>
+ .byte 116,218 // je 158a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 158a4 <_sk_store_u16_be_avx+0x107>
+ .byte 114,205 // jb 158a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 158a4 <_sk_store_u16_be_avx+0x107>
+ .byte 116,196 // je 158a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 158a4 <_sk_store_u16_be_avx+0x107>
+ .byte 114,183 // jb 158a0 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 158a4 <_sk_store_u16_be_avx+0x107>
+ .byte 235,174 // jmp 158a0 <_sk_store_u16_be_avx+0x107>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -30373,7 +30374,7 @@ _sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 15a67 <_sk_load_f32_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 15a63 <_sk_load_f32_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -30386,7 +30387,7 @@ _sk_load_f32_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 15a78 <_sk_load_f32_avx+0x182>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 15a74 <_sk_load_f32_avx+0x182>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -30449,7 +30450,7 @@ _sk_load_f32_avx:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp 15a41 <_sk_load_f32_avx+0x14b>
+ .byte 235,203 // jmp 15a3d <_sk_load_f32_avx+0x14b>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -30461,7 +30462,7 @@ _sk_load_f32_avx:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29015a94 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe3868>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29015a90 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe3868>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -30473,7 +30474,7 @@ _sk_load_f32_dst_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 15c09 <_sk_load_f32_dst_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 15c05 <_sk_load_f32_dst_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -30486,7 +30487,7 @@ _sk_load_f32_dst_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 15c18 <_sk_load_f32_dst_avx+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 15c14 <_sk_load_f32_dst_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -30549,7 +30550,7 @@ _sk_load_f32_dst_avx:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp 15be3 <_sk_load_f32_dst_avx+0x14b>
+ .byte 235,203 // jmp 15bdf <_sk_load_f32_dst_avx+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -30589,7 +30590,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 15cb7 <_sk_store_f32_avx+0x7f>
+ .byte 117,55 // jne 15cb3 <_sk_store_f32_avx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -30602,22 +30603,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 15cb3 <_sk_store_f32_avx+0x7b>
+ .byte 116,240 // je 15caf <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 15cb3 <_sk_store_f32_avx+0x7b>
+ .byte 114,227 // jb 15caf <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 15cb3 <_sk_store_f32_avx+0x7b>
+ .byte 116,218 // je 15caf <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 15cb3 <_sk_store_f32_avx+0x7b>
+ .byte 114,205 // jb 15caf <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 15cb3 <_sk_store_f32_avx+0x7b>
+ .byte 116,195 // je 15caf <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 15cb3 <_sk_store_f32_avx+0x7b>
+ .byte 114,181 // jb 15caf <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 15cb3 <_sk_store_f32_avx+0x7b>
+ .byte 235,171 // jmp 15caf <_sk_store_f32_avx+0x7b>
HIDDEN _sk_repeat_x_avx
.globl _sk_repeat_x_avx
@@ -30660,7 +30661,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,29,205,1,0 // vmulss 0x1cd1d(%rip),%xmm9,%xmm0 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 197,178,89,5,81,199,1,0 // vmulss 0x1c751(%rip),%xmm9,%xmm0 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -30687,7 +30688,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,179,204,1,0 // vmulss 0x1ccb3(%rip),%xmm9,%xmm1 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 197,178,89,13,231,198,1,0 // vmulss 0x1c6e7(%rip),%xmm9,%xmm1 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -30707,7 +30708,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,112,204,1,0 // vbroadcastss 0x1cc70(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,164,198,1,0 // vbroadcastss 0x1c6a4(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30720,7 +30721,7 @@ _sk_repeat_x_1_avx:
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,74,204,1,0 // vbroadcastss 0x1cc4a(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,126,198,1,0 // vbroadcastss 0x1c67e(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30729,9 +30730,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,80,204,1,0 // vbroadcastss 0x1cc50(%rip),%ymm8 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,5,132,198,1,0 // vbroadcastss 0x1c684(%rip),%ymm8 # 324f0 <_sk_srcover_rgba_8888_sse2_lowp+0x2c8>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,38,204,1,0 // vbroadcastss 0x1cc26(%rip),%ymm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,13,90,198,1,0 // vbroadcastss 0x1c65a(%rip),%ymm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -30741,7 +30742,7 @@ _sk_mirror_x_1_avx:
.byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
.byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,246,203,1,0 // vbroadcastss 0x1cbf6(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,42,198,1,0 // vbroadcastss 0x1c62a(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30750,12 +30751,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,8,205,1,0 // vbroadcastss 0x1cd08(%rip),%ymm3 # 32bcc <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,226,125,24,29,60,199,1,0 // vbroadcastss 0x1c73c(%rip),%ymm3 # 325fc <_sk_srcover_rgba_8888_sse2_lowp+0x3d4>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,247,204,1,0 // vbroadcastss 0x1ccf7(%rip),%ymm3 # 32bc8 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,226,125,24,29,43,199,1,0 // vbroadcastss 0x1c72b(%rip),%ymm3 # 325f8 <_sk_srcover_rgba_8888_sse2_lowp+0x3d0>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,238,204,1,0 // vbroadcastss 0x1ccee(%rip),%ymm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,13,34,199,1,0 // vbroadcastss 0x1c722(%rip),%ymm1 # 32600 <_sk_srcover_rgba_8888_sse2_lowp+0x3d8>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31003,9 +31004,9 @@ _sk_evenly_spaced_gradient_avx:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 16286 <_sk_evenly_spaced_gradient_avx+0x25>
+ .byte 120,7 // js 16282 <_sk_evenly_spaced_gradient_avx+0x25>
.byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp 1629b <_sk_evenly_spaced_gradient_avx+0x3a>
+ .byte 235,21 // jmp 16297 <_sk_evenly_spaced_gradient_avx+0x3a>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -31163,18 +31164,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,5,198,1,0 // vbroadcastss 0x1c605(%rip),%ymm0 # 32bd4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,226,125,24,5,57,192,1,0 // vbroadcastss 0x1c039(%rip),%ymm0 # 32604 <_sk_srcover_rgba_8888_sse2_lowp+0x3dc>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,252,197,1,0 // vbroadcastss 0x1c5fc(%rip),%ymm1 # 32bd8 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,226,125,24,13,48,192,1,0 // vbroadcastss 0x1c030(%rip),%ymm1 # 32608 <_sk_srcover_rgba_8888_sse2_lowp+0x3e0>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,239,197,1,0 // vbroadcastss 0x1c5ef(%rip),%ymm1 # 32bdc <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,226,125,24,13,35,192,1,0 // vbroadcastss 0x1c023(%rip),%ymm1 # 3260c <_sk_srcover_rgba_8888_sse2_lowp+0x3e4>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,226,197,1,0 // vbroadcastss 0x1c5e2(%rip),%ymm1 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,226,125,24,13,22,192,1,0 // vbroadcastss 0x1c016(%rip),%ymm1 # 32610 <_sk_srcover_rgba_8888_sse2_lowp+0x3e8>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,213,197,1,0 // vbroadcastss 0x1c5d5(%rip),%ymm1 # 32be4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,226,125,24,13,9,192,1,0 // vbroadcastss 0x1c009(%rip),%ymm1 # 32614 <_sk_srcover_rgba_8888_sse2_lowp+0x3ec>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -31196,12 +31197,12 @@ _sk_gradient_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,81 // jb 16692 <_sk_gradient_avx+0x6f>
+ .byte 114,81 // jb 1668e <_sk_gradient_avx+0x6f>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,82,196,1,0 // vbroadcastss 0x1c452(%rip),%ymm10 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,24,21,134,190,1,0 // vbroadcastss 0x1be86(%rip),%ymm10 # 324dc <_sk_srcover_rgba_8888_sse2_lowp+0x2b4>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -31213,7 +31214,7 @@ _sk_gradient_avx:
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,204 // jne 1665e <_sk_gradient_avx+0x3b>
+ .byte 117,204 // jne 1665a <_sk_gradient_avx+0x3b>
.byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
@@ -31395,27 +31396,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,128,193,1,0 // vbroadcastss 0x1c180(%rip),%ymm13 # 32be8 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 196,98,125,24,45,180,187,1,0 // vbroadcastss 0x1bbb4(%rip),%ymm13 # 32618 <_sk_srcover_rgba_8888_sse2_lowp+0x3f0>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,118,193,1,0 // vbroadcastss 0x1c176(%rip),%ymm14 # 32bec <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,98,125,24,53,170,187,1,0 // vbroadcastss 0x1bbaa(%rip),%ymm14 # 3261c <_sk_srcover_rgba_8888_sse2_lowp+0x3f4>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,103,193,1,0 // vbroadcastss 0x1c167(%rip),%ymm14 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 196,98,125,24,53,155,187,1,0 // vbroadcastss 0x1bb9b(%rip),%ymm14 # 32620 <_sk_srcover_rgba_8888_sse2_lowp+0x3f8>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,88,193,1,0 // vbroadcastss 0x1c158(%rip),%ymm13 # 32bf4 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 196,98,125,24,45,140,187,1,0 // vbroadcastss 0x1bb8c(%rip),%ymm13 # 32624 <_sk_srcover_rgba_8888_sse2_lowp+0x3fc>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,67,193,1,0 // vbroadcastss 0x1c143(%rip),%ymm10 # 32bf8 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 196,98,125,24,21,119,187,1,0 // vbroadcastss 0x1bb77(%rip),%ymm10 # 32628 <_sk_srcover_rgba_8888_sse2_lowp+0x400>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,213,191,1,0 // vbroadcastss 0x1bfd5(%rip),%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,21,9,186,1,0 // vbroadcastss 0x1ba09(%rip),%ymm10 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,191,191,1,0 // vbroadcastss 0x1bfbf(%rip),%ymm10 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,21,243,185,1,0 // vbroadcastss 0x1b9f3(%rip),%ymm10 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -31445,7 +31446,7 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,185,192,1,0 // vbroadcastss 0x1c0b9(%rip),%ymm11 # 32bfc <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,29,237,186,1,0 // vbroadcastss 0x1baed(%rip),%ymm11 # 3262c <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -31454,17 +31455,17 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,141,192,1,0 // vbroadcastss 0x1c08d(%rip),%ymm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,24,13,193,186,1,0 // vbroadcastss 0x1bac1(%rip),%ymm9 # 32630 <_sk_srcover_rgba_8888_sse2_lowp+0x408>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,107,192,1,0 // vbroadcastss 0x1c06b(%rip),%ymm9 # 32c04 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,13,159,186,1,0 // vbroadcastss 0x1ba9f(%rip),%ymm9 # 32634 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,248,190,1,0 // vbroadcastss 0x1bef8(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,29,44,185,1,0 // vbroadcastss 0x1b92c(%rip),%ymm11 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -31484,7 +31485,7 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,11,192,1,0 // vbroadcastss 0x1c00b(%rip),%ymm11 # 32bfc <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,29,63,186,1,0 // vbroadcastss 0x1ba3f(%rip),%ymm11 # 3262c <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -31493,17 +31494,17 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,223,191,1,0 // vbroadcastss 0x1bfdf(%rip),%ymm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,24,13,19,186,1,0 // vbroadcastss 0x1ba13(%rip),%ymm9 # 32630 <_sk_srcover_rgba_8888_sse2_lowp+0x408>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 196,98,125,24,13,189,191,1,0 // vbroadcastss 0x1bfbd(%rip),%ymm9 # 32c04 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,13,241,185,1,0 // vbroadcastss 0x1b9f1(%rip),%ymm9 # 32634 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,74,190,1,0 // vbroadcastss 0x1be4a(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,29,126,184,1,0 // vbroadcastss 0x1b87e(%rip),%ymm11 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -31522,7 +31523,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,99,191,1,0 // vbroadcastss 0x1bf63(%rip),%ymm10 # 32bfc <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,21,151,185,1,0 // vbroadcastss 0x1b997(%rip),%ymm10 # 3262c <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -31531,7 +31532,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,59,191,1,0 // vbroadcastss 0x1bf3b(%rip),%ymm8 # 32c04 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,5,111,185,1,0 // vbroadcastss 0x1b96f(%rip),%ymm8 # 32634 <_sk_srcover_rgba_8888_sse2_lowp+0x40c>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31575,7 +31576,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,97,189,1,0 // vbroadcastss 0x1bd61(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,149,183,1,0 // vbroadcastss 0x1b795(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -31612,9 +31613,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,71,190,1,0 // vbroadcastss 0x1be47(%rip),%ymm0 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,226,125,24,5,123,184,1,0 // vbroadcastss 0x1b87b(%rip),%ymm0 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,218,188,1,0 // vbroadcastss 0x1bcda(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,14,183,1,0 // vbroadcastss 0x1b70e(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31625,7 +31626,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,183,188,1,0 // vbroadcastss 0x1bcb7(%rip),%ymm0 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,226,125,24,5,235,182,1,0 // vbroadcastss 0x1b6eb(%rip),%ymm0 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -31637,9 +31638,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,248,189,1,0 // vbroadcastss 0x1bdf8(%rip),%ymm1 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,226,125,24,13,44,184,1,0 // vbroadcastss 0x1b82c(%rip),%ymm1 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,138,188,1,0 // vbroadcastss 0x1bc8a(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,190,182,1,0 // vbroadcastss 0x1b6be(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31650,7 +31651,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,103,188,1,0 // vbroadcastss 0x1bc67(%rip),%ymm1 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,226,125,24,13,155,182,1,0 // vbroadcastss 0x1b69b(%rip),%ymm1 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -31662,14 +31663,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,171,189,1,0 // vbroadcastss 0x1bdab(%rip),%ymm0 # 32c0c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,226,125,24,5,223,183,1,0 // vbroadcastss 0x1b7df(%rip),%ymm0 # 3263c <_sk_srcover_rgba_8888_sse2_lowp+0x414>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,58,188,1,0 // vbroadcastss 0x1bc3a(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,110,182,1,0 // vbroadcastss 0x1b66e(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,140,189,1,0 // vbroadcastss 0x1bd8c(%rip),%ymm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,21,192,183,1,0 // vbroadcastss 0x1b7c0(%rip),%ymm10 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,138,188,1,0 // vbroadcastss 0x1bc8a(%rip),%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,21,190,182,1,0 // vbroadcastss 0x1b6be(%rip),%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -31681,19 +31682,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,85,189,1,0 // vbroadcastss 0x1bd55(%rip),%ymm0 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,226,125,24,5,137,183,1,0 // vbroadcastss 0x1b789(%rip),%ymm0 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,232,187,1,0 // vbroadcastss 0x1bbe8(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,28,182,1,0 // vbroadcastss 0x1b61c(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,67,189,1,0 // vbroadcastss 0x1bd43(%rip),%ymm9 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,13,119,183,1,0 // vbroadcastss 0x1b777(%rip),%ymm9 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,57,189,1,0 // vbroadcastss 0x1bd39(%rip),%ymm10 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,109,183,1,0 // vbroadcastss 0x1b76d(%rip),%ymm10 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,178,187,1,0 // vbroadcastss 0x1bbb2(%rip),%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,21,230,181,1,0 // vbroadcastss 0x1b5e6(%rip),%ymm10 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,23,189,1,0 // vbroadcastss 0x1bd17(%rip),%ymm9 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,13,75,183,1,0 // vbroadcastss 0x1b74b(%rip),%ymm9 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31704,17 +31705,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,131,187,1,0 // vbroadcastss 0x1bb83(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,183,181,1,0 // vbroadcastss 0x1b5b7(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,222,188,1,0 // vbroadcastss 0x1bcde(%rip),%ymm10 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,21,18,183,1,0 // vbroadcastss 0x1b712(%rip),%ymm10 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,212,188,1,0 // vbroadcastss 0x1bcd4(%rip),%ymm11 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,29,8,183,1,0 // vbroadcastss 0x1b708(%rip),%ymm11 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,187,188,1,0 // vbroadcastss 0x1bcbb(%rip),%ymm9 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,13,239,182,1,0 // vbroadcastss 0x1b6ef(%rip),%ymm9 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31725,13 +31726,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,155,188,1,0 // vbroadcastss 0x1bc9b(%rip),%ymm0 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,226,125,24,5,207,182,1,0 // vbroadcastss 0x1b6cf(%rip),%ymm0 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,121,188,1,0 // vbroadcastss 0x1bc79(%rip),%ymm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,21,173,182,1,0 // vbroadcastss 0x1b6ad(%rip),%ymm10 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,119,187,1,0 // vbroadcastss 0x1bb77(%rip),%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,21,171,181,1,0 // vbroadcastss 0x1b5ab(%rip),%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
@@ -31743,14 +31744,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,70,188,1,0 // vbroadcastss 0x1bc46(%rip),%ymm1 # 32c0c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,226,125,24,13,122,182,1,0 // vbroadcastss 0x1b67a(%rip),%ymm1 # 3263c <_sk_srcover_rgba_8888_sse2_lowp+0x414>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,212,186,1,0 // vbroadcastss 0x1bad4(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,8,181,1,0 // vbroadcastss 0x1b508(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,38,188,1,0 // vbroadcastss 0x1bc26(%rip),%ymm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,21,90,182,1,0 // vbroadcastss 0x1b65a(%rip),%ymm10 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,36,187,1,0 // vbroadcastss 0x1bb24(%rip),%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,21,88,181,1,0 // vbroadcastss 0x1b558(%rip),%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -31762,19 +31763,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,239,187,1,0 // vbroadcastss 0x1bbef(%rip),%ymm1 # 32c08 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,226,125,24,13,35,182,1,0 // vbroadcastss 0x1b623(%rip),%ymm1 # 32638 <_sk_srcover_rgba_8888_sse2_lowp+0x410>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,129,186,1,0 // vbroadcastss 0x1ba81(%rip),%ymm8 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,5,181,180,1,0 // vbroadcastss 0x1b4b5(%rip),%ymm8 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,220,187,1,0 // vbroadcastss 0x1bbdc(%rip),%ymm9 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,13,16,182,1,0 // vbroadcastss 0x1b610(%rip),%ymm9 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,210,187,1,0 // vbroadcastss 0x1bbd2(%rip),%ymm10 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,21,6,182,1,0 // vbroadcastss 0x1b606(%rip),%ymm10 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,75,186,1,0 // vbroadcastss 0x1ba4b(%rip),%ymm10 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,21,127,180,1,0 // vbroadcastss 0x1b47f(%rip),%ymm10 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,176,187,1,0 // vbroadcastss 0x1bbb0(%rip),%ymm9 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,13,228,181,1,0 // vbroadcastss 0x1b5e4(%rip),%ymm9 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31785,17 +31786,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,28,186,1,0 // vbroadcastss 0x1ba1c(%rip),%ymm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,80,180,1,0 // vbroadcastss 0x1b450(%rip),%ymm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
.byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,118,187,1,0 // vbroadcastss 0x1bb76(%rip),%ymm10 # 32c14 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,21,170,181,1,0 // vbroadcastss 0x1b5aa(%rip),%ymm10 # 32644 <_sk_srcover_rgba_8888_sse2_lowp+0x41c>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,108,187,1,0 // vbroadcastss 0x1bb6c(%rip),%ymm11 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,29,160,181,1,0 // vbroadcastss 0x1b5a0(%rip),%ymm11 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,83,187,1,0 // vbroadcastss 0x1bb53(%rip),%ymm9 # 32c1c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,13,135,181,1,0 // vbroadcastss 0x1b587(%rip),%ymm9 # 3264c <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31806,13 +31807,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,51,187,1,0 // vbroadcastss 0x1bb33(%rip),%ymm1 # 32c18 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,226,125,24,13,103,181,1,0 // vbroadcastss 0x1b567(%rip),%ymm1 # 32648 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
.byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,16,187,1,0 // vbroadcastss 0x1bb10(%rip),%ymm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,21,68,181,1,0 // vbroadcastss 0x1b544(%rip),%ymm10 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x418>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,14,186,1,0 // vbroadcastss 0x1ba0e(%rip),%ymm10 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,21,66,180,1,0 // vbroadcastss 0x1b442(%rip),%ymm10 # 3254c <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
@@ -31960,7 +31961,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,168,184,1,0 // vbroadcastss 0x1b8a8(%rip),%xmm4 # 32c24 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,226,121,24,37,220,178,1,0 // vbroadcastss 0x1b2dc(%rip),%xmm4 # 32654 <_sk_srcover_rgba_8888_sse2_lowp+0x42c>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -32014,7 +32015,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,13,182,1,0 // vbroadcastss 0x1b60d(%rip),%xmm10 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,121,24,21,65,176,1,0 // vbroadcastss 0x1b041(%rip),%xmm10 # 324e4 <_sk_srcover_rgba_8888_sse2_lowp+0x2bc>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -32042,7 +32043,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,229,182,1,0 // vbroadcastss 0x1b6e5(%rip),%ymm7 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,226,125,24,61,25,177,1,0 // vbroadcastss 0x1b119(%rip),%ymm7 # 32650 <_sk_srcover_rgba_8888_sse2_lowp+0x428>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -32785,7 +32786,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,169,167,1,0 // vbroadcastss 0x1a7a9(%rip),%xmm9 # 32c24 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,121,24,13,221,161,1,0 // vbroadcastss 0x1a1dd(%rip),%xmm9 # 32654 <_sk_srcover_rgba_8888_sse2_lowp+0x42c>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -32842,7 +32843,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,254,164,1,0 // vbroadcastss 0x1a4fe(%rip),%xmm10 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,121,24,21,50,159,1,0 // vbroadcastss 0x19f32(%rip),%xmm10 # 324e4 <_sk_srcover_rgba_8888_sse2_lowp+0x2bc>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -32870,7 +32871,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,214,165,1,0 // vbroadcastss 0x1a5d6(%rip),%ymm12 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,37,10,160,1,0 // vbroadcastss 0x1a00a(%rip),%ymm12 # 32650 <_sk_srcover_rgba_8888_sse2_lowp+0x428>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -34268,7 +34269,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,31,135,1,0 // vbroadcastss 0x1871f(%rip),%ymm3 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,226,125,24,29,83,129,1,0 // vbroadcastss 0x18153(%rip),%ymm3 # 324d8 <_sk_srcover_rgba_8888_sse2_lowp+0x2b0>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -34301,13 +34302,13 @@ _sk_start_pipeline_sse41:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 1a473 <_sk_start_pipeline_sse41+0xb6>
+ .byte 15,131,131,0,0,0 // jae 1a46f <_sk_start_pipeline_sse41+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 1a441 <_sk_start_pipeline_sse41+0x84>
+ .byte 119,59 // ja 1a43d <_sk_start_pipeline_sse41+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -34326,10 +34327,10 @@ _sk_start_pipeline_sse41:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 1a40a <_sk_start_pipeline_sse41+0x4d>
+ .byte 118,201 // jbe 1a406 <_sk_start_pipeline_sse41+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 1a46a <_sk_start_pipeline_sse41+0xad>
+ .byte 116,33 // je 1a466 <_sk_start_pipeline_sse41+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34343,7 +34344,7 @@ _sk_start_pipeline_sse41:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 1a3fc <_sk_start_pipeline_sse41+0x3f>
+ .byte 117,137 // jne 1a3f8 <_sk_start_pipeline_sse41+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -34363,16 +34364,18 @@ HIDDEN _sk_seed_shader_sse41
.globl _sk_seed_shader_sse41
FUNCTION(_sk_seed_shader_sse41)
_sk_seed_shader_sse41:
+ .byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,10,136,1,0 // addps 0x1880a(%rip),%xmm0 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
+ .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
+ .byte 15,16,0 // movups (%rax),%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,7,136,1,0 // addps 0x18807(%rip),%xmm1 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,13,154,135,1,0 // addps 0x1879a(%rip),%xmm1 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,14,136,1,0 // movaps 0x1880e(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,161,135,1,0 // movaps 0x187a1(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -34387,18 +34390,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,167,135,1,0 // paddd 0x187a7(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
+ .byte 102,68,15,254,5,74,135,1,0 // paddd 0x1874a(%rip),%xmm8 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,222,135,1,0 // movdqa 0x187de(%rip),%xmm10 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
+ .byte 102,68,15,111,21,113,135,1,0 // movdqa 0x18771(%rip),%xmm10 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,202,135,1,0 // movdqa 0x187ca(%rip),%xmm12 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
- .byte 102,68,15,111,45,209,135,1,0 // movdqa 0x187d1(%rip),%xmm13 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,37,93,135,1,0 // movdqa 0x1875d(%rip),%xmm12 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xa48>
+ .byte 102,68,15,111,45,100,135,1,0 // movdqa 0x18764(%rip),%xmm13 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -34414,8 +34417,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,140,135,1,0 // mulps 0x1878c(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
- .byte 68,15,88,5,148,135,1,0 // addps 0x18794(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 68,15,89,5,31,135,1,0 // mulps 0x1871f(%rip),%xmm8 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
+ .byte 68,15,88,5,39,135,1,0 // addps 0x18727(%rip),%xmm8 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xa78>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -34457,7 +34460,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,202,134,1,0 // movaps 0x186ca(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,93,134,1,0 // movaps 0x1865d(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34468,7 +34471,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,182,134,1,0 // movaps 0x186b6(%rip),%xmm0 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,5,73,134,1,0 // movaps 0x18649(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -34514,7 +34517,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,102,134,1,0 // movaps 0x18666(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,249,133,1,0 // movaps 0x185f9(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34539,7 +34542,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,25,134,1,0 // movaps 0x18619(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,172,133,1,0 // movaps 0x185ac(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -34586,7 +34589,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,173,133,1,0 // movaps 0x185ad(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,64,133,1,0 // movaps 0x18540(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -34599,7 +34602,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,141,133,1,0 // movaps 0x1858d(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,32,133,1,0 // movaps 0x18520(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -34616,7 +34619,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,96,133,1,0 // movaps 0x18560(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,243,132,1,0 // movaps 0x184f3(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34636,7 +34639,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,36,133,1,0 // movaps 0x18524(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,183,132,1,0 // movaps 0x184b7(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -34664,7 +34667,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,232,132,1,0 // movaps 0x184e8(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,123,132,1,0 // movaps 0x1847b(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -34702,7 +34705,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,105,132,1,0 // movaps 0x18469(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,252,131,1,0 // movaps 0x183fc(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -34744,7 +34747,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,245,131,1,0 // movaps 0x183f5(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,136,131,1,0 // movaps 0x18388(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -34792,7 +34795,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,80,131,1,0 // movaps 0x18350(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,227,130,1,0 // movaps 0x182e3(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34826,7 +34829,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,229,130,1,0 // movaps 0x182e5(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,120,130,1,0 // movaps 0x18278(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34863,7 +34866,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,111,130,1,0 // movaps 0x1826f(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,2,130,1,0 // movaps 0x18202(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34891,7 +34894,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,31,130,1,0 // movaps 0x1821f(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,178,129,1,0 // movaps 0x181b2(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34903,7 +34906,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,6,130,1,0 // movaps 0x18206(%rip),%xmm11 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,29,153,129,1,0 // movaps 0x18199(%rip),%xmm11 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -34987,7 +34990,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,208,128,1,0 // movaps 0x180d0(%rip),%xmm10 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,99,128,1,0 // movaps 0x18063(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -35069,7 +35072,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,155,127,1,0 // movaps 0x17f9b(%rip),%xmm10 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,46,127,1,0 // movaps 0x17f2e(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -35152,7 +35155,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,112,126,1,0 // movaps 0x17e70(%rip),%xmm10 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,3,126,1,0 // movaps 0x17e03(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -35237,7 +35240,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,55,125,1,0 // movaps 0x17d37(%rip),%xmm1 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,13,202,124,1,0 // movaps 0x17cca(%rip),%xmm1 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -35250,10 +35253,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,101,125,1,0 // movaps 0x17d65(%rip),%xmm13 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 68,15,40,45,248,124,1,0 // movaps 0x17cf8(%rip),%xmm13 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa88>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,101,125,1,0 // movaps 0x17d65(%rip),%xmm12 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 68,15,40,37,248,124,1,0 // movaps 0x17cf8(%rip),%xmm12 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa98>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -35439,12 +35442,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,208,122,1,0 // movaps 0x17ad0(%rip),%xmm0 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 15,40,5,99,122,1,0 // movaps 0x17a63(%rip),%xmm0 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,213,122,1,0 // movaps 0x17ad5(%rip),%xmm2 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 15,40,21,104,122,1,0 // movaps 0x17a68(%rip),%xmm2 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,214,122,1,0 // movaps 0x17ad6(%rip),%xmm14 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,53,105,122,1,0 // movaps 0x17a69(%rip),%xmm14 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -35527,7 +35530,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,234,120,1,0 // movaps 0x178ea(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,125,120,1,0 // movaps 0x1787d(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -35621,14 +35624,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,20,120,1,0 // movaps 0x17814(%rip),%xmm2 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 15,40,21,167,119,1,0 // movaps 0x177a7(%rip),%xmm2 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,23,120,1,0 // movaps 0x17817(%rip),%xmm1 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 15,40,13,170,119,1,0 // movaps 0x177aa(%rip),%xmm1 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,22,120,1,0 // movaps 0x17816(%rip),%xmm13 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,45,169,119,1,0 // movaps 0x177a9(%rip),%xmm13 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -35709,7 +35712,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,44,118,1,0 // movaps 0x1762c(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,191,117,1,0 // movaps 0x175bf(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -35764,14 +35767,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,231,117,1,0 // movaps 0x175e7(%rip),%xmm9 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,13,122,117,1,0 // movaps 0x1757a(%rip),%xmm9 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,231,117,1,0 // movaps 0x175e7(%rip),%xmm10 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,21,122,117,1,0 // movaps 0x1757a(%rip),%xmm10 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,228,117,1,0 // movaps 0x175e4(%rip),%xmm11 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,29,119,117,1,0 // movaps 0x17577(%rip),%xmm11 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -35856,7 +35859,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,240,115,1,0 // movaps 0x173f0(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,131,115,1,0 // movaps 0x17383(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -35908,13 +35911,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,184,115,1,0 // movaps 0x173b8(%rip),%xmm8 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,75,115,1,0 // movaps 0x1734b(%rip),%xmm8 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,188,115,1,0 // movaps 0x173bc(%rip),%xmm10 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,21,79,115,1,0 // movaps 0x1734f(%rip),%xmm10 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,186,115,1,0 // movaps 0x173ba(%rip),%xmm12 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,37,77,115,1,0 // movaps 0x1734d(%rip),%xmm12 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -35999,7 +36002,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,192,113,1,0 // movaps 0x171c0(%rip),%xmm0 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,5,83,113,1,0 // movaps 0x17153(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -36044,23 +36047,23 @@ _sk_srcover_rgba_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,219,0,0,0 // jne 1bc68 <_sk_srcover_rgba_8888_sse41+0xfb>
+ .byte 15,133,219,0,0,0 // jne 1bc65 <_sk_srcover_rgba_8888_sse41+0xfb>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,210,113,1,0 // movdqa 0x171d2(%rip),%xmm4 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,37,101,113,1,0 // movdqa 0x17165(%rip),%xmm4 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,206,113,1,0 // pshufb 0x171ce(%rip),%xmm5 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,45,97,113,1,0 // pshufb 0x17161(%rip),%xmm5 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,206,113,1,0 // pshufb 0x171ce(%rip),%xmm6 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,53,97,113,1,0 // pshufb 0x17161(%rip),%xmm6 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,235,112,1,0 // movaps 0x170eb(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,126,112,1,0 // movaps 0x1707e(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,191,113,1,0 // movaps 0x171bf(%rip),%xmm12 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,37,82,113,1,0 // movaps 0x17152(%rip),%xmm12 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -36086,7 +36089,7 @@ _sk_srcover_rgba_8888_sse41:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,88 // jne 1bca6 <_sk_srcover_rgba_8888_sse41+0x139>
+ .byte 117,88 // jne 1bca3 <_sk_srcover_rgba_8888_sse41+0x139>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -36097,32 +36100,32 @@ _sk_srcover_rgba_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1bcd0 <_sk_srcover_rgba_8888_sse41+0x163>
+ .byte 116,91 // je 1bccd <_sk_srcover_rgba_8888_sse41+0x163>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1bc95 <_sk_srcover_rgba_8888_sse41+0x128>
+ .byte 116,22 // je 1bc92 <_sk_srcover_rgba_8888_sse41+0x128>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,10,255,255,255 // jne 1bb93 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 15,133,10,255,255,255 // jne 1bb90 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,237,254,255,255 // jmpq 1bb93 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,237,254,255,255 // jmpq 1bb90 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1bcdb <_sk_srcover_rgba_8888_sse41+0x16e>
+ .byte 116,40 // je 1bcd8 <_sk_srcover_rgba_8888_sse41+0x16e>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1bcc8 <_sk_srcover_rgba_8888_sse41+0x15b>
+ .byte 116,15 // je 1bcc5 <_sk_srcover_rgba_8888_sse41+0x15b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,149 // jne 1bc54 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 117,149 // jne 1bc51 <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,58,22,68,128,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,132 // jmp 1bc54 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 235,132 // jmp 1bc51 <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,184,254,255,255 // jmpq 1bb93 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,184,254,255,255 // jmpq 1bb90 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,110,255,255,255 // jmpq 1bc54 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 233,110,255,255,255 // jmpq 1bc51 <_sk_srcover_rgba_8888_sse41+0xe7>
HIDDEN _sk_clamp_0_sse41
.globl _sk_clamp_0_sse41
@@ -36140,7 +36143,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,186,111,1,0 // movaps 0x16fba(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,77,111,1,0 // movaps 0x16f4d(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -36152,7 +36155,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,159,111,1,0 // minps 0x16f9f(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,29,50,111,1,0 // minps 0x16f32(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -36163,7 +36166,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,139,111,1,0 // minps 0x16f8b(%rip),%xmm7 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,61,30,111,1,0 // minps 0x16f1e(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -36198,7 +36201,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,71,111,1,0 // movaps 0x16f47(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,218,110,1,0 // movaps 0x16eda(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -36259,10 +36262,10 @@ HIDDEN _sk_unpremul_sse41
.globl _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
- .byte 68,15,40,5,213,110,1,0 // movaps 0x16ed5(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,104,110,1,0 // movaps 0x16e68(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,180,111,1,0,1 // cmpltps 0x16fb4(%rip),%xmm9 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
+ .byte 68,15,194,13,71,111,1,0,1 // cmpltps 0x16f47(%rip),%xmm9 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -36274,20 +36277,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,168,111,1,0 // movaps 0x16fa8(%rip),%xmm11 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 68,15,40,29,59,111,1,0 // movaps 0x16f3b(%rip),%xmm11 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb28>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,16,111,1,0 // movaps 0x16f10(%rip),%xmm12 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,37,163,110,1,0 // movaps 0x16ea3(%rip),%xmm12 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,144,111,1,0 // movaps 0x16f90(%rip),%xmm13 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 68,15,40,45,35,111,1,0 // movaps 0x16f23(%rip),%xmm13 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb38>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,144,111,1,0 // movaps 0x16f90(%rip),%xmm14 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 68,15,40,53,35,111,1,0 // movaps 0x16f23(%rip),%xmm14 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb48>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,148,111,1,0 // movaps 0x16f94(%rip),%xmm15 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 68,15,40,61,39,111,1,0 // movaps 0x16f27(%rip),%xmm15 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb58>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -36324,19 +36327,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,223,110,1,0 // movaps 0x16edf(%rip),%xmm11 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 68,15,40,29,114,110,1,0 // movaps 0x16e72(%rip),%xmm11 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb28>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,72,110,1,0 // movaps 0x16e48(%rip),%xmm12 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,37,219,109,1,0 // movaps 0x16ddb(%rip),%xmm12 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,204,110,1,0 // movaps 0x16ecc(%rip),%xmm13 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 68,15,40,45,95,110,1,0 // movaps 0x16e5f(%rip),%xmm13 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb38>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,205,110,1,0 // movaps 0x16ecd(%rip),%xmm14 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 68,15,40,53,96,110,1,0 // movaps 0x16e60(%rip),%xmm14 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb48>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,209,110,1,0 // movaps 0x16ed1(%rip),%xmm15 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 68,15,40,61,100,110,1,0 // movaps 0x16e64(%rip),%xmm15 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb58>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -36380,22 +36383,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,69,110,1,0 // movaps 0x16e45(%rip),%xmm11 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
+ .byte 68,15,40,29,216,109,1,0 // movaps 0x16dd8(%rip),%xmm11 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xb68>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,69,110,1,0 // movaps 0x16e45(%rip),%xmm12 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
+ .byte 68,15,40,37,216,109,1,0 // movaps 0x16dd8(%rip),%xmm12 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb78>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,69,110,1,0 // movaps 0x16e45(%rip),%xmm10 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
+ .byte 68,15,40,21,216,109,1,0 // movaps 0x16dd8(%rip),%xmm10 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xb88>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,69,110,1,0 // movaps 0x16e45(%rip),%xmm13 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
+ .byte 68,15,40,45,216,109,1,0 // movaps 0x16dd8(%rip),%xmm13 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb98>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,73,110,1,0 // movaps 0x16e49(%rip),%xmm14 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
+ .byte 68,15,40,53,220,109,1,0 // movaps 0x16ddc(%rip),%xmm14 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xba8>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,69,110,1,0 // movaps 0x16e45(%rip),%xmm15 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,40,61,216,109,1,0 // movaps 0x16dd8(%rip),%xmm15 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb8>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -36450,7 +36453,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,236,107,1,0 // movaps 0x16bec(%rip),%xmm14 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,53,127,107,1,0 // movaps 0x16b7f(%rip),%xmm14 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -36459,27 +36462,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,99,109,1,0 // andps 0x16d63(%rip),%xmm15 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,84,61,246,108,1,0 // andps 0x16cf6(%rip),%xmm15 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xbc8>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,86,109,1,0 // movaps 0x16d56(%rip),%xmm13 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 68,15,40,45,233,108,1,0 // movaps 0x16ce9(%rip),%xmm13 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xbd8>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,82,109,1,0 // addps 0x16d52(%rip),%xmm8 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 68,15,88,5,229,108,1,0 // addps 0x16ce5(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xbe8>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,74,109,1,0 // mulps 0x16d4a(%rip),%xmm8 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 68,15,89,5,221,108,1,0 // mulps 0x16cdd(%rip),%xmm8 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xbf8>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,78,107,1,0 // movaps 0x16b4e(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,40,5,225,106,1,0 // movaps 0x16ae1(%rip),%xmm0 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -36501,7 +36504,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,4,107,1,0 // movaps 0x16b04(%rip),%xmm9 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,13,151,106,1,0 // movaps 0x16a97(%rip),%xmm9 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -36514,19 +36517,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,191,108,1,0 // movaps 0x16cbf(%rip),%xmm14 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 68,15,40,53,82,108,1,0 // movaps 0x16c52(%rip),%xmm14 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xc08>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,184,108,1,0 // movaps 0x16cb8(%rip),%xmm11 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,40,29,75,108,1,0 // movaps 0x16c4b(%rip),%xmm11 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xc18>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,81,108,1,0 // movaps 0x16c51(%rip),%xmm7 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,40,61,228,107,1,0 // movaps 0x16be4(%rip),%xmm7 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xbc8>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,98,108,1,0 // movaps 0x16c62(%rip),%xmm3 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 15,40,29,245,107,1,0 // movaps 0x16bf5(%rip),%xmm3 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xbe8>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -36536,7 +36539,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,65,108,1,0 // movaps 0x16c41(%rip),%xmm12 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 68,15,40,37,212,107,1,0 // movaps 0x16bd4(%rip),%xmm12 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xbf8>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -36570,7 +36573,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,217,107,1,0 // addps 0x16bd9(%rip),%xmm10 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,88,21,108,107,1,0 // addps 0x16b6c(%rip),%xmm10 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -36625,11 +36628,11 @@ _sk_scale_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 1c3ce <_sk_scale_u8_sse41+0x4c>
+ .byte 117,52 // jne 1c3cb <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,198,105,1,0 // pand 0x169c6(%rip),%xmm8 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,219,5,89,105,1,0 // pand 0x16959(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,26,107,1,0 // mulps 0x16b1a(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,89,5,173,106,1,0 // mulps 0x16aad(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -36640,12 +36643,12 @@ _sk_scale_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,59 // je 1c416 <_sk_scale_u8_sse41+0x94>
+ .byte 116,59 // je 1c413 <_sk_scale_u8_sse41+0x94>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1c3fd <_sk_scale_u8_sse41+0x7b>
+ .byte 116,23 // je 1c3fa <_sk_scale_u8_sse41+0x7b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 1c3a1 <_sk_scale_u8_sse41+0x1f>
+ .byte 117,181 // jne 1c39e <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -36653,10 +36656,10 @@ _sk_scale_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,139 // jmp 1c3a1 <_sk_scale_u8_sse41+0x1f>
+ .byte 235,139 // jmp 1c39e <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,124,255,255,255 // jmpq 1c3a1 <_sk_scale_u8_sse41+0x1f>
+ .byte 233,124,255,255,255 // jmpq 1c39e <_sk_scale_u8_sse41+0x1f>
HIDDEN _sk_scale_565_sse41
.globl _sk_scale_565_sse41
@@ -36671,19 +36674,19 @@ _sk_scale_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,159,0,0,0 // jne 1c4e8 <_sk_scale_565_sse41+0xc3>
+ .byte 15,133,159,0,0,0 // jne 1c4e5 <_sk_scale_565_sse41+0xc3>
.byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11
- .byte 102,15,111,5,136,106,1,0 // movdqa 0x16a88(%rip),%xmm0 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,5,27,106,1,0 // movdqa 0x16a1b(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,135,106,1,0 // mulps 0x16a87(%rip),%xmm9 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
- .byte 102,15,111,5,143,106,1,0 // movdqa 0x16a8f(%rip),%xmm0 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,89,13,26,106,1,0 // mulps 0x16a1a(%rip),%xmm9 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 102,15,111,5,34,106,1,0 // movdqa 0x16a22(%rip),%xmm0 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,142,106,1,0 // mulps 0x16a8e(%rip),%xmm10 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 102,68,15,219,29,149,106,1,0 // pand 0x16a95(%rip),%xmm11 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,89,21,33,106,1,0 // mulps 0x16a21(%rip),%xmm10 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ .byte 102,68,15,219,29,40,106,1,0 // pand 0x16a28(%rip),%xmm11 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,153,106,1,0 // mulps 0x16a99(%rip),%xmm11 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,29,44,106,1,0 // mulps 0x16a2c(%rip),%xmm11 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -36708,22 +36711,22 @@ _sk_scale_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1c531 <_sk_scale_565_sse41+0x10c>
+ .byte 116,60 // je 1c52e <_sk_scale_565_sse41+0x10c>
.byte 102,69,15,239,219 // pxor %xmm11,%xmm11
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1c51a <_sk_scale_565_sse41+0xf5>
+ .byte 116,26 // je 1c517 <_sk_scale_565_sse41+0xf5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,70,255,255,255 // jne 1c450 <_sk_scale_565_sse41+0x2b>
+ .byte 15,133,70,255,255,255 // jne 1c44d <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11
- .byte 233,31,255,255,255 // jmpq 1c450 <_sk_scale_565_sse41+0x2b>
+ .byte 233,31,255,255,255 // jmpq 1c44d <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 233,16,255,255,255 // jmpq 1c450 <_sk_scale_565_sse41+0x2b>
+ .byte 233,16,255,255,255 // jmpq 1c44d <_sk_scale_565_sse41+0x2b>
HIDDEN _sk_lerp_1_float_sse41
.globl _sk_lerp_1_float_sse41
@@ -36758,11 +36761,11 @@ _sk_lerp_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,72 // jne 1c5d8 <_sk_lerp_u8_sse41+0x60>
+ .byte 117,72 // jne 1c5d5 <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,208,103,1,0 // pand 0x167d0(%rip),%xmm8 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,219,5,99,103,1,0 // pand 0x16763(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,36,105,1,0 // mulps 0x16924(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,89,5,183,104,1,0 // mulps 0x168b7(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -36780,12 +36783,12 @@ _sk_lerp_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,62 // je 1c623 <_sk_lerp_u8_sse41+0xab>
+ .byte 116,62 // je 1c620 <_sk_lerp_u8_sse41+0xab>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1c607 <_sk_lerp_u8_sse41+0x8f>
+ .byte 116,23 // je 1c604 <_sk_lerp_u8_sse41+0x8f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 1c597 <_sk_lerp_u8_sse41+0x1f>
+ .byte 117,161 // jne 1c594 <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -36793,10 +36796,10 @@ _sk_lerp_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 233,116,255,255,255 // jmpq 1c597 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,116,255,255,255 // jmpq 1c594 <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,101,255,255,255 // jmpq 1c597 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,101,255,255,255 // jmpq 1c594 <_sk_lerp_u8_sse41+0x1f>
HIDDEN _sk_lerp_565_sse41
.globl _sk_lerp_565_sse41
@@ -36811,19 +36814,19 @@ _sk_lerp_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 1c6fb <_sk_lerp_565_sse41+0xc9>
+ .byte 15,133,165,0,0,0 // jne 1c6f8 <_sk_lerp_565_sse41+0xc9>
.byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10
- .byte 102,15,111,5,123,104,1,0 // movdqa 0x1687b(%rip),%xmm0 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,5,14,104,1,0 // movdqa 0x1680e(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,122,104,1,0 // mulps 0x1687a(%rip),%xmm9 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
- .byte 102,15,111,5,130,104,1,0 // movdqa 0x16882(%rip),%xmm0 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,89,13,13,104,1,0 // mulps 0x1680d(%rip),%xmm9 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 102,15,111,5,21,104,1,0 // movdqa 0x16815(%rip),%xmm0 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,129,104,1,0 // mulps 0x16881(%rip),%xmm11 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 102,68,15,219,21,136,104,1,0 // pand 0x16888(%rip),%xmm10 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,89,29,20,104,1,0 // mulps 0x16814(%rip),%xmm11 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ .byte 102,68,15,219,21,27,104,1,0 // pand 0x1681b(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,140,104,1,0 // mulps 0x1688c(%rip),%xmm10 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,21,31,104,1,0 // mulps 0x1681f(%rip),%xmm10 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -36851,22 +36854,22 @@ _sk_lerp_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1c744 <_sk_lerp_565_sse41+0x112>
+ .byte 116,60 // je 1c741 <_sk_lerp_565_sse41+0x112>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1c72d <_sk_lerp_565_sse41+0xfb>
+ .byte 116,26 // je 1c72a <_sk_lerp_565_sse41+0xfb>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,64,255,255,255 // jne 1c65d <_sk_lerp_565_sse41+0x2b>
+ .byte 15,133,64,255,255,255 // jne 1c65a <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10
- .byte 233,25,255,255,255 // jmpq 1c65d <_sk_lerp_565_sse41+0x2b>
+ .byte 233,25,255,255,255 // jmpq 1c65a <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,10,255,255,255 // jmpq 1c65d <_sk_lerp_565_sse41+0x2b>
+ .byte 233,10,255,255,255 // jmpq 1c65a <_sk_lerp_565_sse41+0x2b>
HIDDEN _sk_load_tables_sse41
.globl _sk_load_tables_sse41
@@ -36875,11 +36878,11 @@ _sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,20,1,0,0 // jne 1c875 <_sk_load_tables_sse41+0x122>
+ .byte 15,133,20,1,0,0 // jne 1c872 <_sk_load_tables_sse41+0x122>
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,254,101,1,0 // movdqa 0x165fe(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,145,101,1,0 // movdqa 0x16591(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -36894,7 +36897,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,185,101,1,0 // pshufb 0x165b9(%rip),%xmm1 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,13,76,101,1,0 // pshufb 0x1654c(%rip),%xmm1 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -36909,7 +36912,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,117,101,1,0 // pshufb 0x16575(%rip),%xmm2 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,21,8,101,1,0 // pshufb 0x16508(%rip),%xmm2 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -36924,7 +36927,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,98,102,1,0 // mulps 0x16662(%rip),%xmm3 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,29,245,101,1,0 // mulps 0x165f5(%rip),%xmm3 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -36932,19 +36935,19 @@ _sk_load_tables_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,52 // je 1c8b6 <_sk_load_tables_sse41+0x163>
+ .byte 116,52 // je 1c8b3 <_sk_load_tables_sse41+0x163>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1c8a4 <_sk_load_tables_sse41+0x151>
+ .byte 116,23 // je 1c8a1 <_sk_load_tables_sse41+0x151>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,208,254,255,255 // jne 1c767 <_sk_load_tables_sse41+0x14>
+ .byte 15,133,208,254,255,255 // jne 1c764 <_sk_load_tables_sse41+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,177,254,255,255 // jmpq 1c767 <_sk_load_tables_sse41+0x14>
+ .byte 233,177,254,255,255 // jmpq 1c764 <_sk_load_tables_sse41+0x14>
.byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8
- .byte 233,166,254,255,255 // jmpq 1c767 <_sk_load_tables_sse41+0x14>
+ .byte 233,166,254,255,255 // jmpq 1c764 <_sk_load_tables_sse41+0x14>
HIDDEN _sk_load_tables_u16_be_sse41
.globl _sk_load_tables_u16_be_sse41
@@ -36954,7 +36957,7 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,95,1,0,0 // jne 1ca36 <_sk_load_tables_u16_be_sse41+0x175>
+ .byte 15,133,95,1,0,0 // jne 1ca33 <_sk_load_tables_u16_be_sse41+0x175>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -36965,7 +36968,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,52,102,1,0 // movdqa 0x16634(%rip),%xmm8 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 102,68,15,111,5,199,101,1,0 // movdqa 0x165c7(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -36983,7 +36986,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,227,101,1,0 // pshufb 0x165e3(%rip),%xmm1 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 102,15,56,0,13,118,101,1,0 // pshufb 0x16576(%rip),%xmm1 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -37019,23 +37022,23 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,49,101,1,0 // mulps 0x16531(%rip),%xmm3 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,89,29,196,100,1,0 // mulps 0x164c4(%rip),%xmm3 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1ca4f <_sk_load_tables_u16_be_sse41+0x18e>
+ .byte 117,13 // jne 1ca4c <_sk_load_tables_u16_be_sse41+0x18e>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,149,254,255,255 // jmpq 1c8e4 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,149,254,255,255 // jmpq 1c8e1 <_sk_load_tables_u16_be_sse41+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,128,254,255,255 // jb 1c8e4 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 15,130,128,254,255,255 // jb 1c8e1 <_sk_load_tables_u16_be_sse41+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,116,254,255,255 // jmpq 1c8e4 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,116,254,255,255 // jmpq 1c8e1 <_sk_load_tables_u16_be_sse41+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse41
.globl _sk_load_tables_rgb_u16_be_sse41
@@ -37045,7 +37048,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,79,1,0,0 // jne 1cbd1 <_sk_load_tables_rgb_u16_be_sse41+0x161>
+ .byte 15,133,79,1,0,0 // jne 1cbce <_sk_load_tables_rgb_u16_be_sse41+0x161>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -37059,7 +37062,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,122,100,1,0 // movdqa 0x1647a(%rip),%xmm8 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 102,68,15,111,5,13,100,1,0 // movdqa 0x1640d(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -37077,7 +37080,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,41,100,1,0 // pshufb 0x16429(%rip),%xmm1 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 102,15,56,0,13,188,99,1,0 // pshufb 0x163bc(%rip),%xmm1 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb8>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -37108,7 +37111,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,244,96,1,0 // movaps 0x160f4(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,135,96,1,0 // movaps 0x16087(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -37116,21 +37119,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 1cbf7 <_sk_load_tables_rgb_u16_be_sse41+0x187>
+ .byte 117,14 // jne 1cbf4 <_sk_load_tables_rgb_u16_be_sse41+0x187>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,177,254,255,255 // jmpq 1caa8 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,177,254,255,255 // jmpq 1caa5 <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1cc28 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
+ .byte 114,24 // jb 1cc25 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,128,254,255,255 // jmpq 1caa8 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,128,254,255,255 // jmpq 1caa5 <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,119,254,255,255 // jmpq 1caa8 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,119,254,255,255 // jmpq 1caa5 <_sk_load_tables_rgb_u16_be_sse41+0x38>
HIDDEN _sk_byte_tables_sse41
.globl _sk_byte_tables_sse41
@@ -37140,7 +37143,7 @@ _sk_byte_tables_sse41:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,97,97,1,0 // movaps 0x16161(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,244,96,1,0 // movaps 0x160f4(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
@@ -37163,7 +37166,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,39,98,1,0 // movaps 0x16227(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,13,186,97,1,0 // movaps 0x161ba(%rip),%xmm9 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -37265,7 +37268,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,131,96,1,0 // movaps 0x16083(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,13,22,96,1,0 // movaps 0x16016(%rip),%xmm9 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -37447,31 +37450,31 @@ _sk_parametric_r_sse41:
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,94,94,1,0 // mulps 0x15e5e(%rip),%xmm8 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,84,21,102,94,1,0 // andps 0x15e66(%rip),%xmm10 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,86,21,142,91,1,0 // orps 0x15b8e(%rip),%xmm10 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,5,102,94,1,0 // addps 0x15e66(%rip),%xmm8 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
- .byte 68,15,40,37,110,94,1,0 // movaps 0x15e6e(%rip),%xmm12 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,5,241,93,1,0 // mulps 0x15df1(%rip),%xmm8 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 68,15,84,21,249,93,1,0 // andps 0x15df9(%rip),%xmm10 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 68,15,86,21,33,91,1,0 // orps 0x15b21(%rip),%xmm10 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
+ .byte 68,15,88,5,249,93,1,0 // addps 0x15df9(%rip),%xmm8 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,37,1,94,1,0 // movaps 0x15e01(%rip),%xmm12 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,88,21,110,94,1,0 // addps 0x15e6e(%rip),%xmm10 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
- .byte 68,15,40,37,118,94,1,0 // movaps 0x15e76(%rip),%xmm12 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,88,21,1,94,1,0 // addps 0x15e01(%rip),%xmm10 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,37,9,94,1,0 // movaps 0x15e09(%rip),%xmm12 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,5,99,94,1,0 // addps 0x15e63(%rip),%xmm8 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
- .byte 68,15,40,21,107,94,1,0 // movaps 0x15e6b(%rip),%xmm10 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,88,5,246,93,1,0 // addps 0x15df6(%rip),%xmm8 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 68,15,40,21,254,93,1,0 // movaps 0x15dfe(%rip),%xmm10 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 68,15,40,21,107,94,1,0 // movaps 0x15e6b(%rip),%xmm10 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,21,254,93,1,0 // movaps 0x15dfe(%rip),%xmm10 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,40,29,111,94,1,0 // movaps 0x15e6f(%rip),%xmm11 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,29,2,94,1,0 // movaps 0x15e02(%rip),%xmm11 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
.byte 69,15,94,218 // divps %xmm10,%xmm11
.byte 69,15,88,216 // addps %xmm8,%xmm11
- .byte 68,15,89,29,111,94,1,0 // mulps 0x15e6f(%rip),%xmm11 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 68,15,89,29,2,94,1,0 // mulps 0x15e02(%rip),%xmm11 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
.byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10
.byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
@@ -37479,7 +37482,7 @@ _sk_parametric_r_sse41:
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,246,90,1,0 // minps 0x15af6(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,93,5,137,90,1,0 // minps 0x15a89(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37509,31 +37512,31 @@ _sk_parametric_g_sse41:
.byte 68,15,88,217 // addps %xmm1,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,55,93,1,0 // mulps 0x15d37(%rip),%xmm12 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,84,29,63,93,1,0 // andps 0x15d3f(%rip),%xmm11 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,86,29,103,90,1,0 // orps 0x15a67(%rip),%xmm11 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,37,63,93,1,0 // addps 0x15d3f(%rip),%xmm12 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
- .byte 15,40,13,72,93,1,0 // movaps 0x15d48(%rip),%xmm1 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,37,202,92,1,0 // mulps 0x15cca(%rip),%xmm12 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 68,15,84,29,210,92,1,0 // andps 0x15cd2(%rip),%xmm11 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 68,15,86,29,250,89,1,0 // orps 0x159fa(%rip),%xmm11 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
+ .byte 68,15,88,37,210,92,1,0 // addps 0x15cd2(%rip),%xmm12 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ .byte 15,40,13,219,92,1,0 // movaps 0x15cdb(%rip),%xmm1 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,88,29,72,93,1,0 // addps 0x15d48(%rip),%xmm11 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
- .byte 15,40,13,81,93,1,0 // movaps 0x15d51(%rip),%xmm1 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,88,29,219,92,1,0 // addps 0x15cdb(%rip),%xmm11 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 15,40,13,228,92,1,0 // movaps 0x15ce4(%rip),%xmm1 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
.byte 65,15,94,203 // divps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,62,93,1,0 // addps 0x15d3e(%rip),%xmm12 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
- .byte 15,40,13,71,93,1,0 // movaps 0x15d47(%rip),%xmm1 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,88,37,209,92,1,0 // addps 0x15cd1(%rip),%xmm12 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 15,40,13,218,92,1,0 // movaps 0x15cda(%rip),%xmm1 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,21,71,93,1,0 // movaps 0x15d47(%rip),%xmm10 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,21,218,92,1,0 // movaps 0x15cda(%rip),%xmm10 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,13,76,93,1,0 // movaps 0x15d4c(%rip),%xmm1 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 15,40,13,223,92,1,0 // movaps 0x15cdf(%rip),%xmm1 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
.byte 65,15,94,202 // divps %xmm10,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,13,77,93,1,0 // mulps 0x15d4d(%rip),%xmm1 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 15,89,13,224,92,1,0 // mulps 0x15ce0(%rip),%xmm1 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
.byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10
.byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
@@ -37541,7 +37544,7 @@ _sk_parametric_g_sse41:
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,93,13,216,89,1,0 // minps 0x159d8(%rip),%xmm1 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,13,107,89,1,0 // minps 0x1596b(%rip),%xmm1 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37571,31 +37574,31 @@ _sk_parametric_b_sse41:
.byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,25,92,1,0 // mulps 0x15c19(%rip),%xmm12 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,84,29,33,92,1,0 // andps 0x15c21(%rip),%xmm11 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,86,29,73,89,1,0 // orps 0x15949(%rip),%xmm11 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,37,33,92,1,0 // addps 0x15c21(%rip),%xmm12 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
- .byte 15,40,21,42,92,1,0 // movaps 0x15c2a(%rip),%xmm2 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,37,172,91,1,0 // mulps 0x15bac(%rip),%xmm12 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 68,15,84,29,180,91,1,0 // andps 0x15bb4(%rip),%xmm11 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 68,15,86,29,220,88,1,0 // orps 0x158dc(%rip),%xmm11 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
+ .byte 68,15,88,37,180,91,1,0 // addps 0x15bb4(%rip),%xmm12 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ .byte 15,40,21,189,91,1,0 // movaps 0x15bbd(%rip),%xmm2 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,88,29,42,92,1,0 // addps 0x15c2a(%rip),%xmm11 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
- .byte 15,40,21,51,92,1,0 // movaps 0x15c33(%rip),%xmm2 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,88,29,189,91,1,0 // addps 0x15bbd(%rip),%xmm11 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 15,40,21,198,91,1,0 // movaps 0x15bc6(%rip),%xmm2 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
.byte 65,15,94,211 // divps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,32,92,1,0 // addps 0x15c20(%rip),%xmm12 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
- .byte 15,40,21,41,92,1,0 // movaps 0x15c29(%rip),%xmm2 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,88,37,179,91,1,0 // addps 0x15bb3(%rip),%xmm12 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 15,40,21,188,91,1,0 // movaps 0x15bbc(%rip),%xmm2 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,40,21,41,92,1,0 // movaps 0x15c29(%rip),%xmm10 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,21,188,91,1,0 // movaps 0x15bbc(%rip),%xmm10 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,21,46,92,1,0 // movaps 0x15c2e(%rip),%xmm2 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 15,40,21,193,91,1,0 // movaps 0x15bc1(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
.byte 65,15,94,210 // divps %xmm10,%xmm2
.byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,89,21,47,92,1,0 // mulps 0x15c2f(%rip),%xmm2 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 15,89,21,194,91,1,0 // mulps 0x15bc2(%rip),%xmm2 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
.byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10
.byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
@@ -37603,7 +37606,7 @@ _sk_parametric_b_sse41:
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,21,186,88,1,0 // minps 0x158ba(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,21,77,88,1,0 // minps 0x1584d(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37633,31 +37636,31 @@ _sk_parametric_a_sse41:
.byte 68,15,88,219 // addps %xmm3,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,251,90,1,0 // mulps 0x15afb(%rip),%xmm12 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,84,29,3,91,1,0 // andps 0x15b03(%rip),%xmm11 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,86,29,43,88,1,0 // orps 0x1582b(%rip),%xmm11 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,37,3,91,1,0 // addps 0x15b03(%rip),%xmm12 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
- .byte 15,40,29,12,91,1,0 // movaps 0x15b0c(%rip),%xmm3 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,37,142,90,1,0 // mulps 0x15a8e(%rip),%xmm12 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 68,15,84,29,150,90,1,0 // andps 0x15a96(%rip),%xmm11 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 68,15,86,29,190,87,1,0 // orps 0x157be(%rip),%xmm11 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
+ .byte 68,15,88,37,150,90,1,0 // addps 0x15a96(%rip),%xmm12 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ .byte 15,40,29,159,90,1,0 // movaps 0x15a9f(%rip),%xmm3 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,88,29,12,91,1,0 // addps 0x15b0c(%rip),%xmm11 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
- .byte 15,40,29,21,91,1,0 // movaps 0x15b15(%rip),%xmm3 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,88,29,159,90,1,0 // addps 0x15a9f(%rip),%xmm11 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 15,40,29,168,90,1,0 // movaps 0x15aa8(%rip),%xmm3 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
.byte 65,15,94,219 // divps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,2,91,1,0 // addps 0x15b02(%rip),%xmm12 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
- .byte 15,40,29,11,91,1,0 // movaps 0x15b0b(%rip),%xmm3 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,88,37,149,90,1,0 // addps 0x15a95(%rip),%xmm12 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 15,40,29,158,90,1,0 // movaps 0x15a9e(%rip),%xmm3 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,40,21,11,91,1,0 // movaps 0x15b0b(%rip),%xmm10 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,21,158,90,1,0 // movaps 0x15a9e(%rip),%xmm10 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,29,16,91,1,0 // movaps 0x15b10(%rip),%xmm3 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 15,40,29,163,90,1,0 // movaps 0x15aa3(%rip),%xmm3 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
.byte 65,15,94,218 // divps %xmm10,%xmm3
.byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,89,29,17,91,1,0 // mulps 0x15b11(%rip),%xmm3 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 15,89,29,164,90,1,0 // mulps 0x15aa4(%rip),%xmm3 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
.byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10
.byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -37665,7 +37668,7 @@ _sk_parametric_a_sse41:
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,93,29,156,87,1,0 // minps 0x1579c(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,29,47,87,1,0 // minps 0x1572f(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37682,20 +37685,20 @@ _sk_gamma_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,27,90,1,0 // mulps 0x15a1b(%rip),%xmm0 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,40,53,35,90,1,0 // movaps 0x15a23(%rip),%xmm14 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,89,5,174,89,1,0 // mulps 0x159ae(%rip),%xmm0 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 68,15,40,53,182,89,1,0 // movaps 0x159b6(%rip),%xmm14 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,37,71,87,1,0 // movaps 0x15747(%rip),%xmm12 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,37,218,86,1,0 // movaps 0x156da(%rip),%xmm12 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 65,15,86,212 // orps %xmm12,%xmm2
- .byte 68,15,40,21,27,90,1,0 // movaps 0x15a1b(%rip),%xmm10 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,21,174,89,1,0 // movaps 0x159ae(%rip),%xmm10 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,29,31,90,1,0 // movaps 0x15a1f(%rip),%xmm11 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,29,178,89,1,0 // movaps 0x159b2(%rip),%xmm11 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,13,29,90,1,0 // movaps 0x15a1d(%rip),%xmm9 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,40,13,176,89,1,0 // movaps 0x159b0(%rip),%xmm9 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 68,15,40,45,33,90,1,0 // movaps 0x15a21(%rip),%xmm13 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,45,180,89,1,0 // movaps 0x159b4(%rip),%xmm13 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -37706,21 +37709,21 @@ _sk_gamma_sse41:
.byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,4,90,1,0 // movaps 0x15a04(%rip),%xmm6 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 15,40,53,151,89,1,0 // movaps 0x15997(%rip),%xmm6 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,26,90,1,0 // movaps 0x15a1a(%rip),%xmm7 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 15,40,61,173,89,1,0 // movaps 0x159ad(%rip),%xmm7 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,250,89,1,0 // movaps 0x159fa(%rip),%xmm4 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 15,40,37,141,89,1,0 // movaps 0x1598d(%rip),%xmm4 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,12,90,1,0 // movaps 0x15a0c(%rip),%xmm15 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,61,159,89,1,0 // movaps 0x1599f(%rip),%xmm15 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,104,89,1,0 // mulps 0x15968(%rip),%xmm0 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 15,89,5,251,88,1,0 // mulps 0x158fb(%rip),%xmm0 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
.byte 65,15,84,206 // andps %xmm14,%xmm1
.byte 65,15,86,204 // orps %xmm12,%xmm1
.byte 65,15,88,194 // addps %xmm10,%xmm0
@@ -37746,8 +37749,8 @@ _sk_gamma_sse41:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,9,89,1,0 // mulps 0x15909(%rip),%xmm0 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 15,84,29,18,89,1,0 // andps 0x15912(%rip),%xmm3 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,89,5,156,88,1,0 // mulps 0x1589c(%rip),%xmm0 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 15,84,29,165,88,1,0 // andps 0x158a5(%rip),%xmm3 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
.byte 65,15,86,220 // orps %xmm12,%xmm3
.byte 65,15,88,194 // addps %xmm10,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
@@ -37765,7 +37768,7 @@ _sk_gamma_sse41:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,90,89,1,0 // movaps 0x1595a(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 15,40,5,237,88,1,0 // movaps 0x158ed(%rip),%xmm0 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -37785,29 +37788,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,42,89,1,0 // mulps 0x1592a(%rip),%xmm8 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
- .byte 68,15,40,13,162,86,1,0 // movaps 0x156a2(%rip),%xmm9 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,89,5,189,88,1,0 // mulps 0x158bd(%rip),%xmm8 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ .byte 68,15,40,13,53,86,1,0 // movaps 0x15635(%rip),%xmm9 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,39,89,1,0 // movaps 0x15927(%rip),%xmm0 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 15,40,5,186,88,1,0 // movaps 0x158ba(%rip),%xmm0 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,37,89,1,0 // addps 0x15925(%rip),%xmm8 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
- .byte 68,15,89,5,45,89,1,0 // mulps 0x1592d(%rip),%xmm8 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
- .byte 15,89,13,54,89,1,0 // mulps 0x15936(%rip),%xmm1 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
+ .byte 68,15,88,5,184,88,1,0 // addps 0x158b8(%rip),%xmm8 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda8>
+ .byte 68,15,89,5,192,88,1,0 // mulps 0x158c0(%rip),%xmm8 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb8>
+ .byte 15,89,13,201,88,1,0 // mulps 0x158c9(%rip),%xmm1 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc8>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,59,89,1,0 // mulps 0x1593b(%rip),%xmm2 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,89,21,206,88,1,0 // mulps 0x158ce(%rip),%xmm2 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,47,89,1,0 // movaps 0x1592f(%rip),%xmm9 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
+ .byte 68,15,40,13,194,88,1,0 // movaps 0x158c2(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,47,89,1,0 // movaps 0x1592f(%rip),%xmm2 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 15,40,21,194,88,1,0 // movaps 0x158c2(%rip),%xmm2 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,52,89,1,0 // movaps 0x15934(%rip),%xmm12 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 68,15,40,37,199,88,1,0 // movaps 0x158c7(%rip),%xmm12 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xe08>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -37826,8 +37829,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,237,88,1,0 // mulps 0x158ed(%rip),%xmm1 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
- .byte 15,89,21,246,88,1,0 // mulps 0x158f6(%rip),%xmm2 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 15,89,13,128,88,1,0 // mulps 0x15880(%rip),%xmm1 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xe18>
+ .byte 15,89,21,137,88,1,0 // mulps 0x15889(%rip),%xmm2 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xe28>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -37844,11 +37847,11 @@ _sk_load_a8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1d814 <_sk_load_a8_sse41+0x3f>
+ .byte 117,39 // jne 1d811 <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,116,85,1,0 // pand 0x15574(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,5,7,85,1,0 // pand 0x15507(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,202,86,1,0 // mulps 0x156ca(%rip),%xmm3 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,29,93,86,1,0 // mulps 0x1565d(%rip),%xmm3 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -37857,12 +37860,12 @@ _sk_load_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1d856 <_sk_load_a8_sse41+0x81>
+ .byte 116,53 // je 1d853 <_sk_load_a8_sse41+0x81>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1d840 <_sk_load_a8_sse41+0x6b>
+ .byte 116,21 // je 1d83d <_sk_load_a8_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1d7f4 <_sk_load_a8_sse41+0x1f>
+ .byte 117,195 // jne 1d7f1 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -37870,10 +37873,10 @@ _sk_load_a8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,158 // jmp 1d7f4 <_sk_load_a8_sse41+0x1f>
+ .byte 235,158 // jmp 1d7f1 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,147 // jmp 1d7f4 <_sk_load_a8_sse41+0x1f>
+ .byte 235,147 // jmp 1d7f1 <_sk_load_a8_sse41+0x1f>
HIDDEN _sk_load_a8_dst_sse41
.globl _sk_load_a8_dst_sse41
@@ -37886,11 +37889,11 @@ _sk_load_a8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1d8a0 <_sk_load_a8_dst_sse41+0x3f>
+ .byte 117,39 // jne 1d89d <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,232,84,1,0 // pand 0x154e8(%rip),%xmm4 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,37,123,84,1,0 // pand 0x1547b(%rip),%xmm4 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,62,86,1,0 // mulps 0x1563e(%rip),%xmm7 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,61,209,85,1,0 // mulps 0x155d1(%rip),%xmm7 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -37899,12 +37902,12 @@ _sk_load_a8_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1d8e2 <_sk_load_a8_dst_sse41+0x81>
+ .byte 116,53 // je 1d8df <_sk_load_a8_dst_sse41+0x81>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1d8cc <_sk_load_a8_dst_sse41+0x6b>
+ .byte 116,21 // je 1d8c9 <_sk_load_a8_dst_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1d880 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 117,195 // jne 1d87d <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -37912,10 +37915,10 @@ _sk_load_a8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,158 // jmp 1d880 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,158 // jmp 1d87d <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,147 // jmp 1d880 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,147 // jmp 1d87d <_sk_load_a8_dst_sse41+0x1f>
HIDDEN _sk_gather_a8_sse41
.globl _sk_gather_a8_sse41
@@ -37958,7 +37961,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,54,85,1,0 // mulps 0x15536(%rip),%xmm3 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,29,201,84,1,0 // mulps 0x154c9(%rip),%xmm3 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -37975,13 +37978,13 @@ _sk_store_a8_sse41:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,221,83,1,0 // movaps 0x153dd(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,112,83,1,0 // movaps 0x15370(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 1d9e9 <_sk_store_a8_sse41+0x41>
+ .byte 117,13 // jne 1d9e6 <_sk_store_a8_sse41+0x41>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -37990,17 +37993,17 @@ _sk_store_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1da25 <_sk_store_a8_sse41+0x7d>
+ .byte 116,41 // je 1da22 <_sk_store_a8_sse41+0x7d>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1da11 <_sk_store_a8_sse41+0x69>
+ .byte 116,15 // je 1da0e <_sk_store_a8_sse41+0x69>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1d9e5 <_sk_store_a8_sse41+0x3d>
+ .byte 117,221 // jne 1d9e2 <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- .byte 102,68,15,56,0,5,181,86,1,0 // pshufb 0x156b5(%rip),%xmm8 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 102,68,15,56,0,5,72,86,1,0 // pshufb 0x15648(%rip),%xmm8 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xe38>
.byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,192 // jmp 1d9e5 <_sk_store_a8_sse41+0x3d>
+ .byte 235,192 // jmp 1d9e2 <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,182 // jmp 1d9e5 <_sk_store_a8_sse41+0x3d>
+ .byte 235,182 // jmp 1d9e2 <_sk_store_a8_sse41+0x3d>
HIDDEN _sk_load_g8_sse41
.globl _sk_load_g8_sse41
@@ -38013,25 +38016,25 @@ _sk_load_g8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1da71 <_sk_load_g8_sse41+0x42>
+ .byte 117,42 // jne 1da6e <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,26,83,1,0 // pand 0x1531a(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,5,173,82,1,0 // pand 0x152ad(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,112,84,1,0 // mulps 0x15470(%rip),%xmm0 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,5,3,84,1,0 // mulps 0x15403(%rip),%xmm0 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,87,82,1,0 // movaps 0x15257(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,234,81,1,0 // movaps 0x151ea(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1dab3 <_sk_load_g8_sse41+0x84>
+ .byte 116,53 // je 1dab0 <_sk_load_g8_sse41+0x84>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1da9d <_sk_load_g8_sse41+0x6e>
+ .byte 116,21 // je 1da9a <_sk_load_g8_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1da4e <_sk_load_g8_sse41+0x1f>
+ .byte 117,192 // jne 1da4b <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38039,10 +38042,10 @@ _sk_load_g8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,155 // jmp 1da4e <_sk_load_g8_sse41+0x1f>
+ .byte 235,155 // jmp 1da4b <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,144 // jmp 1da4e <_sk_load_g8_sse41+0x1f>
+ .byte 235,144 // jmp 1da4b <_sk_load_g8_sse41+0x1f>
HIDDEN _sk_load_g8_dst_sse41
.globl _sk_load_g8_dst_sse41
@@ -38055,25 +38058,25 @@ _sk_load_g8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1db00 <_sk_load_g8_dst_sse41+0x42>
+ .byte 117,42 // jne 1dafd <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,139,82,1,0 // pand 0x1528b(%rip),%xmm4 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,37,30,82,1,0 // pand 0x1521e(%rip),%xmm4 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,225,83,1,0 // mulps 0x153e1(%rip),%xmm4 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,37,116,83,1,0 // mulps 0x15374(%rip),%xmm4 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,200,81,1,0 // movaps 0x151c8(%rip),%xmm7 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,61,91,81,1,0 // movaps 0x1515b(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1db42 <_sk_load_g8_dst_sse41+0x84>
+ .byte 116,53 // je 1db3f <_sk_load_g8_dst_sse41+0x84>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1db2c <_sk_load_g8_dst_sse41+0x6e>
+ .byte 116,21 // je 1db29 <_sk_load_g8_dst_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1dadd <_sk_load_g8_dst_sse41+0x1f>
+ .byte 117,192 // jne 1dada <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38081,10 +38084,10 @@ _sk_load_g8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,155 // jmp 1dadd <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,155 // jmp 1dada <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,144 // jmp 1dadd <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,144 // jmp 1dada <_sk_load_g8_dst_sse41+0x1f>
HIDDEN _sk_gather_g8_sse41
.globl _sk_gather_g8_sse41
@@ -38127,9 +38130,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,214,82,1,0 // mulps 0x152d6(%rip),%xmm0 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,5,105,82,1,0 // mulps 0x15269(%rip),%xmm0 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,189,80,1,0 // movaps 0x150bd(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,80,80,1,0 // movaps 0x15050(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -38146,41 +38149,41 @@ _sk_load_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1dc76 <_sk_load_565_sse41+0x6b>
+ .byte 117,80 // jne 1dc73 <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2
- .byte 102,15,111,5,171,82,1,0 // movdqa 0x152ab(%rip),%xmm0 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,5,62,82,1,0 // movdqa 0x1523e(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,173,82,1,0 // mulps 0x152ad(%rip),%xmm0 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
- .byte 102,15,111,13,181,82,1,0 // movdqa 0x152b5(%rip),%xmm1 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,89,5,64,82,1,0 // mulps 0x15240(%rip),%xmm0 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 102,15,111,13,72,82,1,0 // movdqa 0x15248(%rip),%xmm1 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,183,82,1,0 // mulps 0x152b7(%rip),%xmm1 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 102,15,219,21,191,82,1,0 // pand 0x152bf(%rip),%xmm2 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,13,74,82,1,0 // mulps 0x1524a(%rip),%xmm1 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ .byte 102,15,219,21,82,82,1,0 // pand 0x15252(%rip),%xmm2 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,197,82,1,0 // mulps 0x152c5(%rip),%xmm2 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 15,89,21,88,82,1,0 // mulps 0x15258(%rip),%xmm2 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,76,80,1,0 // movaps 0x1504c(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,223,79,1,0 // movaps 0x14fdf(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1dcb8 <_sk_load_565_sse41+0xad>
+ .byte 116,53 // je 1dcb5 <_sk_load_565_sse41+0xad>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1dca2 <_sk_load_565_sse41+0x97>
+ .byte 116,21 // je 1dc9f <_sk_load_565_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1dc2d <_sk_load_565_sse41+0x22>
+ .byte 117,154 // jne 1dc2a <_sk_load_565_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 233,117,255,255,255 // jmpq 1dc2d <_sk_load_565_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1dc2a <_sk_load_565_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,103,255,255,255 // jmpq 1dc2d <_sk_load_565_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1dc2a <_sk_load_565_sse41+0x22>
HIDDEN _sk_load_565_dst_sse41
.globl _sk_load_565_dst_sse41
@@ -38194,41 +38197,41 @@ _sk_load_565_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1dd31 <_sk_load_565_dst_sse41+0x6b>
+ .byte 117,80 // jne 1dd2e <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6
- .byte 102,15,111,37,240,81,1,0 // movdqa 0x151f0(%rip),%xmm4 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,37,131,81,1,0 // movdqa 0x15183(%rip),%xmm4 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,242,81,1,0 // mulps 0x151f2(%rip),%xmm4 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
- .byte 102,15,111,45,250,81,1,0 // movdqa 0x151fa(%rip),%xmm5 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,89,37,133,81,1,0 // mulps 0x15185(%rip),%xmm4 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 102,15,111,45,141,81,1,0 // movdqa 0x1518d(%rip),%xmm5 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,252,81,1,0 // mulps 0x151fc(%rip),%xmm5 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 102,15,219,53,4,82,1,0 // pand 0x15204(%rip),%xmm6 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,45,143,81,1,0 // mulps 0x1518f(%rip),%xmm5 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ .byte 102,15,219,53,151,81,1,0 // pand 0x15197(%rip),%xmm6 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,10,82,1,0 // mulps 0x1520a(%rip),%xmm6 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 15,89,53,157,81,1,0 // mulps 0x1519d(%rip),%xmm6 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,145,79,1,0 // movaps 0x14f91(%rip),%xmm7 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,61,36,79,1,0 // movaps 0x14f24(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1dd73 <_sk_load_565_dst_sse41+0xad>
+ .byte 116,53 // je 1dd70 <_sk_load_565_dst_sse41+0xad>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1dd5d <_sk_load_565_dst_sse41+0x97>
+ .byte 116,21 // je 1dd5a <_sk_load_565_dst_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1dce8 <_sk_load_565_dst_sse41+0x22>
+ .byte 117,154 // jne 1dce5 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 233,117,255,255,255 // jmpq 1dce8 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1dce5 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,103,255,255,255 // jmpq 1dce8 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1dce5 <_sk_load_565_dst_sse41+0x22>
HIDDEN _sk_gather_565_sse41
.globl _sk_gather_565_sse41
@@ -38270,19 +38273,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,183,80,1,0 // movdqa 0x150b7(%rip),%xmm0 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,5,74,80,1,0 // movdqa 0x1504a(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,185,80,1,0 // mulps 0x150b9(%rip),%xmm0 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
- .byte 102,15,111,13,193,80,1,0 // movdqa 0x150c1(%rip),%xmm1 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,89,5,76,80,1,0 // mulps 0x1504c(%rip),%xmm0 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 102,15,111,13,84,80,1,0 // movdqa 0x15054(%rip),%xmm1 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,195,80,1,0 // mulps 0x150c3(%rip),%xmm1 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 102,15,219,21,203,80,1,0 // pand 0x150cb(%rip),%xmm2 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,13,86,80,1,0 // mulps 0x15056(%rip),%xmm1 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ .byte 102,15,219,21,94,80,1,0 // pand 0x1505e(%rip),%xmm2 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,209,80,1,0 // mulps 0x150d1(%rip),%xmm2 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 15,89,21,100,80,1,0 // mulps 0x15064(%rip),%xmm2 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,88,78,1,0 // movaps 0x14e58(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,235,77,1,0 // movaps 0x14deb(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -38296,12 +38299,12 @@ _sk_store_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,88,82,1,0 // movaps 0x15258(%rip),%xmm8 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,235,81,1,0 // movaps 0x151eb(%rip),%xmm8 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xe48>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,77,82,1,0 // movaps 0x1524d(%rip),%xmm10 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,21,224,81,1,0 // movaps 0x151e0(%rip),%xmm10 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xe58>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -38311,7 +38314,7 @@ _sk_store_565_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1deda <_sk_store_565_sse41+0x70>
+ .byte 117,10 // jne 1ded7 <_sk_store_565_sse41+0x70>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38319,17 +38322,17 @@ _sk_store_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1df10 <_sk_store_565_sse41+0xa6>
+ .byte 116,35 // je 1df0d <_sk_store_565_sse41+0xa6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1df02 <_sk_store_565_sse41+0x98>
+ .byte 116,15 // je 1deff <_sk_store_565_sse41+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1ded6 <_sk_store_565_sse41+0x6c>
+ .byte 117,221 // jne 1ded3 <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1ded6 <_sk_store_565_sse41+0x6c>
+ .byte 235,198 // jmp 1ded3 <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1ded6 <_sk_store_565_sse41+0x6c>
+ .byte 235,188 // jmp 1ded3 <_sk_store_565_sse41+0x6c>
HIDDEN _sk_load_4444_sse41
.globl _sk_load_4444_sse41
@@ -38343,44 +38346,44 @@ _sk_load_4444_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1df94 <_sk_load_4444_sse41+0x7a>
+ .byte 117,95 // jne 1df91 <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3
- .byte 102,15,111,5,188,81,1,0 // movdqa 0x151bc(%rip),%xmm0 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,5,79,81,1,0 // movdqa 0x1514f(%rip),%xmm0 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,190,81,1,0 // mulps 0x151be(%rip),%xmm0 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
- .byte 102,15,111,13,198,81,1,0 // movdqa 0x151c6(%rip),%xmm1 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 15,89,5,81,81,1,0 // mulps 0x15151(%rip),%xmm0 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ .byte 102,15,111,13,89,81,1,0 // movdqa 0x15159(%rip),%xmm1 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,200,81,1,0 // mulps 0x151c8(%rip),%xmm1 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
- .byte 102,15,111,21,208,81,1,0 // movdqa 0x151d0(%rip),%xmm2 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 15,89,13,91,81,1,0 // mulps 0x1515b(%rip),%xmm1 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ .byte 102,15,111,21,99,81,1,0 // movdqa 0x15163(%rip),%xmm2 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,210,81,1,0 // mulps 0x151d2(%rip),%xmm2 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
- .byte 102,15,219,29,218,81,1,0 // pand 0x151da(%rip),%xmm3 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,21,101,81,1,0 // mulps 0x15165(%rip),%xmm2 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ .byte 102,15,219,29,109,81,1,0 // pand 0x1516d(%rip),%xmm3 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,224,81,1,0 // mulps 0x151e0(%rip),%xmm3 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 15,89,29,115,81,1,0 // mulps 0x15173(%rip),%xmm3 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1dfd6 <_sk_load_4444_sse41+0xbc>
+ .byte 116,53 // je 1dfd3 <_sk_load_4444_sse41+0xbc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1dfc0 <_sk_load_4444_sse41+0xa6>
+ .byte 116,21 // je 1dfbd <_sk_load_4444_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1df3c <_sk_load_4444_sse41+0x22>
+ .byte 117,139 // jne 1df39 <_sk_load_4444_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,102,255,255,255 // jmpq 1df3c <_sk_load_4444_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1df39 <_sk_load_4444_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,88,255,255,255 // jmpq 1df3c <_sk_load_4444_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1df39 <_sk_load_4444_sse41+0x22>
HIDDEN _sk_load_4444_dst_sse41
.globl _sk_load_4444_dst_sse41
@@ -38394,44 +38397,44 @@ _sk_load_4444_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1e05e <_sk_load_4444_dst_sse41+0x7a>
+ .byte 117,95 // jne 1e05b <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7
- .byte 102,15,111,37,242,80,1,0 // movdqa 0x150f2(%rip),%xmm4 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,37,133,80,1,0 // movdqa 0x15085(%rip),%xmm4 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,244,80,1,0 // mulps 0x150f4(%rip),%xmm4 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
- .byte 102,15,111,45,252,80,1,0 // movdqa 0x150fc(%rip),%xmm5 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 15,89,37,135,80,1,0 // mulps 0x15087(%rip),%xmm4 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ .byte 102,15,111,45,143,80,1,0 // movdqa 0x1508f(%rip),%xmm5 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,254,80,1,0 // mulps 0x150fe(%rip),%xmm5 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
- .byte 102,15,111,53,6,81,1,0 // movdqa 0x15106(%rip),%xmm6 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 15,89,45,145,80,1,0 // mulps 0x15091(%rip),%xmm5 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ .byte 102,15,111,53,153,80,1,0 // movdqa 0x15099(%rip),%xmm6 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,8,81,1,0 // mulps 0x15108(%rip),%xmm6 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
- .byte 102,15,219,61,16,81,1,0 // pand 0x15110(%rip),%xmm7 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,53,155,80,1,0 // mulps 0x1509b(%rip),%xmm6 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ .byte 102,15,219,61,163,80,1,0 // pand 0x150a3(%rip),%xmm7 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,22,81,1,0 // mulps 0x15116(%rip),%xmm7 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 15,89,61,169,80,1,0 // mulps 0x150a9(%rip),%xmm7 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1e0a0 <_sk_load_4444_dst_sse41+0xbc>
+ .byte 116,53 // je 1e09d <_sk_load_4444_dst_sse41+0xbc>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e08a <_sk_load_4444_dst_sse41+0xa6>
+ .byte 116,21 // je 1e087 <_sk_load_4444_dst_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1e006 <_sk_load_4444_dst_sse41+0x22>
+ .byte 117,139 // jne 1e003 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,102,255,255,255 // jmpq 1e006 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1e003 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,88,255,255,255 // jmpq 1e006 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1e003 <_sk_load_4444_dst_sse41+0x22>
HIDDEN _sk_gather_4444_sse41
.globl _sk_gather_4444_sse41
@@ -38473,21 +38476,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,170,79,1,0 // movdqa 0x14faa(%rip),%xmm0 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,5,61,79,1,0 // movdqa 0x14f3d(%rip),%xmm0 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,172,79,1,0 // mulps 0x14fac(%rip),%xmm0 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
- .byte 102,15,111,13,180,79,1,0 // movdqa 0x14fb4(%rip),%xmm1 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 15,89,5,63,79,1,0 // mulps 0x14f3f(%rip),%xmm0 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ .byte 102,15,111,13,71,79,1,0 // movdqa 0x14f47(%rip),%xmm1 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,182,79,1,0 // mulps 0x14fb6(%rip),%xmm1 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
- .byte 102,15,111,21,190,79,1,0 // movdqa 0x14fbe(%rip),%xmm2 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 15,89,13,73,79,1,0 // mulps 0x14f49(%rip),%xmm1 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ .byte 102,15,111,21,81,79,1,0 // movdqa 0x14f51(%rip),%xmm2 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,192,79,1,0 // mulps 0x14fc0(%rip),%xmm2 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
- .byte 102,15,219,29,200,79,1,0 // pand 0x14fc8(%rip),%xmm3 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,21,83,79,1,0 // mulps 0x14f53(%rip),%xmm2 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ .byte 102,15,219,29,91,79,1,0 // pand 0x14f5b(%rip),%xmm3 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,206,79,1,0 // mulps 0x14fce(%rip),%xmm3 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 15,89,29,97,79,1,0 // mulps 0x14f61(%rip),%xmm3 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38502,7 +38505,7 @@ _sk_store_4444_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,188,79,1,0 // movaps 0x14fbc(%rip),%xmm8 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,5,79,79,1,0 // movaps 0x14f4f(%rip),%xmm8 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xee8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38522,7 +38525,7 @@ _sk_store_4444_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e22a <_sk_store_4444_sse41+0x84>
+ .byte 117,10 // jne 1e227 <_sk_store_4444_sse41+0x84>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38530,17 +38533,17 @@ _sk_store_4444_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1e260 <_sk_store_4444_sse41+0xba>
+ .byte 116,35 // je 1e25d <_sk_store_4444_sse41+0xba>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e252 <_sk_store_4444_sse41+0xac>
+ .byte 116,15 // je 1e24f <_sk_store_4444_sse41+0xac>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1e226 <_sk_store_4444_sse41+0x80>
+ .byte 117,221 // jne 1e223 <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1e226 <_sk_store_4444_sse41+0x80>
+ .byte 235,198 // jmp 1e223 <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1e226 <_sk_store_4444_sse41+0x80>
+ .byte 235,188 // jmp 1e223 <_sk_store_4444_sse41+0x80>
HIDDEN _sk_load_8888_sse41
.globl _sk_load_8888_sse41
@@ -38554,19 +38557,19 @@ _sk_load_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e2df <_sk_load_8888_sse41+0x75>
+ .byte 117,89 // jne 1e2dc <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,220,74,1,0 // movdqa 0x14adc(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,111,74,1,0 // movdqa 0x14a6f(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,45,76,1,0 // movaps 0x14c2d(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,192,75,1,0 // movaps 0x14bc0(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,204,74,1,0 // pshufb 0x14acc(%rip),%xmm1 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,13,95,74,1,0 // pshufb 0x14a5f(%rip),%xmm1 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,200,74,1,0 // pshufb 0x14ac8(%rip),%xmm2 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,21,91,74,1,0 // pshufb 0x14a5b(%rip),%xmm2 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38577,19 +38580,19 @@ _sk_load_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e319 <_sk_load_8888_sse41+0xaf>
+ .byte 116,45 // je 1e316 <_sk_load_8888_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e308 <_sk_load_8888_sse41+0x9e>
+ .byte 116,18 // je 1e305 <_sk_load_8888_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e28c <_sk_load_8888_sse41+0x22>
+ .byte 117,144 // jne 1e289 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1e28c <_sk_load_8888_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e289 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1e28c <_sk_load_8888_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e289 <_sk_load_8888_sse41+0x22>
HIDDEN _sk_load_8888_dst_sse41
.globl _sk_load_8888_dst_sse41
@@ -38603,19 +38606,19 @@ _sk_load_8888_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e399 <_sk_load_8888_dst_sse41+0x75>
+ .byte 117,89 // jne 1e396 <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,34,74,1,0 // movdqa 0x14a22(%rip),%xmm4 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,37,181,73,1,0 // movdqa 0x149b5(%rip),%xmm4 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,115,75,1,0 // movaps 0x14b73(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,6,75,1,0 // movaps 0x14b06(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,18,74,1,0 // pshufb 0x14a12(%rip),%xmm5 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,45,165,73,1,0 // pshufb 0x149a5(%rip),%xmm5 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,14,74,1,0 // pshufb 0x14a0e(%rip),%xmm6 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,53,161,73,1,0 // pshufb 0x149a1(%rip),%xmm6 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -38626,19 +38629,19 @@ _sk_load_8888_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e3d3 <_sk_load_8888_dst_sse41+0xaf>
+ .byte 116,45 // je 1e3d0 <_sk_load_8888_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e3c2 <_sk_load_8888_dst_sse41+0x9e>
+ .byte 116,18 // je 1e3bf <_sk_load_8888_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e346 <_sk_load_8888_dst_sse41+0x22>
+ .byte 117,144 // jne 1e343 <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1e346 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e343 <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1e346 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e343 <_sk_load_8888_dst_sse41+0x22>
HIDDEN _sk_gather_8888_sse41
.globl _sk_gather_8888_sse41
@@ -38675,17 +38678,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,251,72,1,0 // movdqa 0x148fb(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,142,72,1,0 // movdqa 0x1488e(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,76,74,1,0 // movaps 0x14a4c(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,223,73,1,0 // movaps 0x149df(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,235,72,1,0 // pshufb 0x148eb(%rip),%xmm1 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,13,126,72,1,0 // pshufb 0x1487e(%rip),%xmm1 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,231,72,1,0 // pshufb 0x148e7(%rip),%xmm2 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,21,122,72,1,0 // pshufb 0x1487a(%rip),%xmm2 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38705,7 +38708,7 @@ _sk_store_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,193,72,1,0 // movaps 0x148c1(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,84,72,1,0 // movaps 0x14854(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38724,23 +38727,23 @@ _sk_store_8888_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e53f <_sk_store_8888_sse41+0x7f>
+ .byte 117,10 // jne 1e53c <_sk_store_8888_sse41+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1e569 <_sk_store_8888_sse41+0xa9>
+ .byte 116,29 // je 1e566 <_sk_store_8888_sse41+0xa9>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e561 <_sk_store_8888_sse41+0xa1>
+ .byte 116,15 // je 1e55e <_sk_store_8888_sse41+0xa1>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1e53b <_sk_store_8888_sse41+0x7b>
+ .byte 117,227 // jne 1e538 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 1e53b <_sk_store_8888_sse41+0x7b>
+ .byte 235,210 // jmp 1e538 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 1e53b <_sk_store_8888_sse41+0x7b>
+ .byte 235,202 // jmp 1e538 <_sk_store_8888_sse41+0x7b>
HIDDEN _sk_load_bgra_sse41
.globl _sk_load_bgra_sse41
@@ -38754,19 +38757,19 @@ _sk_load_bgra_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e5e6 <_sk_load_bgra_sse41+0x75>
+ .byte 117,89 // jne 1e5e3 <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,213,71,1,0 // movdqa 0x147d5(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,104,71,1,0 // movdqa 0x14768(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,38,73,1,0 // movaps 0x14926(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,185,72,1,0 // movaps 0x148b9(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,197,71,1,0 // pshufb 0x147c5(%rip),%xmm0 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,5,88,71,1,0 // pshufb 0x14758(%rip),%xmm0 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,193,71,1,0 // pshufb 0x147c1(%rip),%xmm0 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,5,84,71,1,0 // pshufb 0x14754(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38777,19 +38780,19 @@ _sk_load_bgra_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e620 <_sk_load_bgra_sse41+0xaf>
+ .byte 116,45 // je 1e61d <_sk_load_bgra_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e60f <_sk_load_bgra_sse41+0x9e>
+ .byte 116,18 // je 1e60c <_sk_load_bgra_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e593 <_sk_load_bgra_sse41+0x22>
+ .byte 117,144 // jne 1e590 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1e593 <_sk_load_bgra_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e590 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1e593 <_sk_load_bgra_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e590 <_sk_load_bgra_sse41+0x22>
HIDDEN _sk_load_bgra_dst_sse41
.globl _sk_load_bgra_dst_sse41
@@ -38803,19 +38806,19 @@ _sk_load_bgra_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e6a0 <_sk_load_bgra_dst_sse41+0x75>
+ .byte 117,89 // jne 1e69d <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,27,71,1,0 // movdqa 0x1471b(%rip),%xmm4 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,37,174,70,1,0 // movdqa 0x146ae(%rip),%xmm4 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,108,72,1,0 // movaps 0x1486c(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,255,71,1,0 // movaps 0x147ff(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,11,71,1,0 // pshufb 0x1470b(%rip),%xmm4 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,37,158,70,1,0 // pshufb 0x1469e(%rip),%xmm4 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,7,71,1,0 // pshufb 0x14707(%rip),%xmm4 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,37,154,70,1,0 // pshufb 0x1469a(%rip),%xmm4 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -38826,19 +38829,19 @@ _sk_load_bgra_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e6da <_sk_load_bgra_dst_sse41+0xaf>
+ .byte 116,45 // je 1e6d7 <_sk_load_bgra_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e6c9 <_sk_load_bgra_dst_sse41+0x9e>
+ .byte 116,18 // je 1e6c6 <_sk_load_bgra_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e64d <_sk_load_bgra_dst_sse41+0x22>
+ .byte 117,144 // jne 1e64a <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1e64d <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e64a <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1e64d <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e64a <_sk_load_bgra_dst_sse41+0x22>
HIDDEN _sk_gather_bgra_sse41
.globl _sk_gather_bgra_sse41
@@ -38875,17 +38878,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,244,69,1,0 // movdqa 0x145f4(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,135,69,1,0 // movdqa 0x14587(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,69,71,1,0 // movaps 0x14745(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,216,70,1,0 // movaps 0x146d8(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,228,69,1,0 // pshufb 0x145e4(%rip),%xmm0 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,5,119,69,1,0 // pshufb 0x14577(%rip),%xmm0 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xae8>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,224,69,1,0 // pshufb 0x145e0(%rip),%xmm0 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,5,115,69,1,0 // pshufb 0x14573(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38905,7 +38908,7 @@ _sk_store_bgra_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,186,69,1,0 // movaps 0x145ba(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,77,69,1,0 // movaps 0x1454d(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38924,23 +38927,23 @@ _sk_store_bgra_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e846 <_sk_store_bgra_sse41+0x7f>
+ .byte 117,10 // jne 1e843 <_sk_store_bgra_sse41+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1e870 <_sk_store_bgra_sse41+0xa9>
+ .byte 116,29 // je 1e86d <_sk_store_bgra_sse41+0xa9>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e868 <_sk_store_bgra_sse41+0xa1>
+ .byte 116,15 // je 1e865 <_sk_store_bgra_sse41+0xa1>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1e842 <_sk_store_bgra_sse41+0x7b>
+ .byte 117,227 // jne 1e83f <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 1e842 <_sk_store_bgra_sse41+0x7b>
+ .byte 235,210 // jmp 1e83f <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 1e842 <_sk_store_bgra_sse41+0x7b>
+ .byte 235,202 // jmp 1e83f <_sk_store_bgra_sse41+0x7b>
HIDDEN _sk_load_f16_sse41
.globl _sk_load_f16_sse41
@@ -38954,7 +38957,7 @@ _sk_load_f16_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 1e9dc <_sk_load_f16_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 1e9d9 <_sk_load_f16_sse41+0x164>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,200 // movapd %xmm0,%xmm9
@@ -38964,19 +38967,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,191,72,1,0 // movdqa 0x148bf(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,5,82,72,1,0 // movdqa 0x14852(%rip),%xmm8 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,189,72,1,0 // movdqa 0x148bd(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,68,15,111,21,80,72,1,0 // movdqa 0x14850(%rip),%xmm10 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,192,72,1,0 // movdqa 0x148c0(%rip),%xmm3 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,111,29,83,72,1,0 // movdqa 0x14853(%rip),%xmm3 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,172,72,1,0 // movdqa 0x148ac(%rip),%xmm11 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 102,68,15,111,29,63,72,1,0 // movdqa 0x1483f(%rip),%xmm11 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -39019,16 +39022,16 @@ _sk_load_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1e9f5 <_sk_load_f16_sse41+0x17d>
+ .byte 117,13 // jne 1e9f2 <_sk_load_f16_sse41+0x17d>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,176,254,255,255 // jmpq 1e8a5 <_sk_load_f16_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 1e8a2 <_sk_load_f16_sse41+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 1e8a5 <_sk_load_f16_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 1e8a2 <_sk_load_f16_sse41+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,143,254,255,255 // jmpq 1e8a5 <_sk_load_f16_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 1e8a2 <_sk_load_f16_sse41+0x2d>
HIDDEN _sk_load_f16_dst_sse41
.globl _sk_load_f16_dst_sse41
@@ -39042,7 +39045,7 @@ _sk_load_f16_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 1eb7a <_sk_load_f16_dst_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 1eb77 <_sk_load_f16_dst_sse41+0x164>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,204 // movapd %xmm4,%xmm9
@@ -39052,19 +39055,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,33,71,1,0 // movdqa 0x14721(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,5,180,70,1,0 // movdqa 0x146b4(%rip),%xmm8 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,31,71,1,0 // movdqa 0x1471f(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,68,15,111,21,178,70,1,0 // movdqa 0x146b2(%rip),%xmm10 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,34,71,1,0 // movdqa 0x14722(%rip),%xmm7 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,111,61,181,70,1,0 // movdqa 0x146b5(%rip),%xmm7 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,14,71,1,0 // movdqa 0x1470e(%rip),%xmm11 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 102,68,15,111,29,161,70,1,0 // movdqa 0x146a1(%rip),%xmm11 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -39107,16 +39110,16 @@ _sk_load_f16_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1eb93 <_sk_load_f16_dst_sse41+0x17d>
+ .byte 117,13 // jne 1eb90 <_sk_load_f16_dst_sse41+0x17d>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,176,254,255,255 // jmpq 1ea43 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 1ea40 <_sk_load_f16_dst_sse41+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 1ea43 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 1ea40 <_sk_load_f16_dst_sse41+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,143,254,255,255 // jmpq 1ea43 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 1ea40 <_sk_load_f16_dst_sse41+0x2d>
HIDDEN _sk_gather_f16_sse41
.globl _sk_gather_f16_sse41
@@ -39162,19 +39165,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,31,69,1,0 // movdqa 0x1451f(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,5,178,68,1,0 // movdqa 0x144b2(%rip),%xmm8 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,29,69,1,0 // movdqa 0x1451d(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,68,15,111,21,176,68,1,0 // movdqa 0x144b0(%rip),%xmm10 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,32,69,1,0 // movdqa 0x14520(%rip),%xmm3 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,111,29,179,68,1,0 // movdqa 0x144b3(%rip),%xmm3 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,12,69,1,0 // movdqa 0x1450c(%rip),%xmm11 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 102,68,15,111,29,159,68,1,0 // movdqa 0x1449f(%rip),%xmm11 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -39227,20 +39230,20 @@ _sk_store_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,13,52,68,1,0 // movdqa 0x14434(%rip),%xmm9 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 102,68,15,111,13,199,67,1,0 // movdqa 0x143c7(%rip),%xmm9 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,49,68,1,0 // movdqa 0x14431(%rip),%xmm11 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 102,68,15,111,29,196,67,1,0 // movdqa 0x143c4(%rip),%xmm11 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0xf48>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,46,68,1,0 // movdqa 0x1442e(%rip),%xmm10 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
+ .byte 102,68,15,111,21,193,67,1,0 // movdqa 0x143c1(%rip),%xmm10 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0xf58>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,20,68,1,0 // movdqa 0x14414(%rip),%xmm12 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
+ .byte 102,68,15,111,37,167,67,1,0 // movdqa 0x143a7(%rip),%xmm12 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0xf68>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -39285,7 +39288,7 @@ _sk_store_f16_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 1eeea <_sk_store_f16_sse41+0x16e>
+ .byte 117,21 // jne 1eee7 <_sk_store_f16_sse41+0x16e>
.byte 69,15,17,12,192 // movups %xmm9,(%r8,%rax,8)
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 243,69,15,127,68,192,16 // movdqu %xmm8,0x10(%r8,%rax,8)
@@ -39293,13 +39296,13 @@ _sk_store_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1eee6 <_sk_store_f16_sse41+0x16a>
+ .byte 116,240 // je 1eee3 <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1eee6 <_sk_store_f16_sse41+0x16a>
+ .byte 114,227 // jb 1eee3 <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,213 // jmp 1eee6 <_sk_store_f16_sse41+0x16a>
+ .byte 235,213 // jmp 1eee3 <_sk_store_f16_sse41+0x16a>
HIDDEN _sk_load_u16_be_sse41
.globl _sk_load_u16_be_sse41
@@ -39314,7 +39317,7 @@ _sk_load_u16_be_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,185,0,0,0 // jne 1eff1 <_sk_load_u16_be_sse41+0xe0>
+ .byte 15,133,185,0,0,0 // jne 1efee <_sk_load_u16_be_sse41+0xe0>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -39330,7 +39333,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,220,63,1,0 // movaps 0x13fdc(%rip),%xmm8 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,5,111,63,1,0 // movaps 0x13f6f(%rip),%xmm8 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -39358,16 +39361,16 @@ _sk_load_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f00a <_sk_load_u16_be_sse41+0xf9>
+ .byte 117,13 // jne 1f007 <_sk_load_u16_be_sse41+0xf9>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 1ef45 <_sk_load_u16_be_sse41+0x34>
+ .byte 233,59,255,255,255 // jmpq 1ef42 <_sk_load_u16_be_sse41+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,38,255,255,255 // jb 1ef45 <_sk_load_u16_be_sse41+0x34>
+ .byte 15,130,38,255,255,255 // jb 1ef42 <_sk_load_u16_be_sse41+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 1ef45 <_sk_load_u16_be_sse41+0x34>
+ .byte 233,26,255,255,255 // jmpq 1ef42 <_sk_load_u16_be_sse41+0x34>
HIDDEN _sk_load_rgb_u16_be_sse41
.globl _sk_load_rgb_u16_be_sse41
@@ -39384,7 +39387,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 1f100 <_sk_load_rgb_u16_be_sse41+0xd5>
+ .byte 15,133,170,0,0,0 // jne 1f0fd <_sk_load_rgb_u16_be_sse41+0xd5>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -39404,7 +39407,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,171,62,1,0 // movaps 0x13eab(%rip),%xmm8 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,5,62,62,1,0 // movaps 0x13e3e(%rip),%xmm8 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -39421,27 +39424,27 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,194,59,1,0 // movaps 0x13bc2(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,85,59,1,0 // movaps 0x13b55(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f125 <_sk_load_rgb_u16_be_sse41+0xfa>
+ .byte 117,13 // jne 1f122 <_sk_load_rgb_u16_be_sse41+0xfa>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 1f07a <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,85,255,255,255 // jmpq 1f077 <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1f156 <_sk_load_rgb_u16_be_sse41+0x12b>
+ .byte 114,24 // jb 1f153 <_sk_load_rgb_u16_be_sse41+0x12b>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,36,255,255,255 // jmpq 1f07a <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,36,255,255,255 // jmpq 1f077 <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 1f07a <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,27,255,255,255 // jmpq 1f077 <_sk_load_rgb_u16_be_sse41+0x4f>
HIDDEN _sk_store_u16_be_sse41
.globl _sk_store_u16_be_sse41
@@ -39455,7 +39458,7 @@ _sk_store_u16_be_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,139,64,1,0 // movaps 0x1408b(%rip),%xmm10 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,21,30,64,1,0 // movaps 0x1401e(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf78>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -39492,7 +39495,7 @@ _sk_store_u16_be_sse41:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 1f253 <_sk_store_u16_be_sse41+0xf4>
+ .byte 117,21 // jne 1f250 <_sk_store_u16_be_sse41+0xf4>
.byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -39500,13 +39503,13 @@ _sk_store_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1f24f <_sk_store_u16_be_sse41+0xf0>
+ .byte 116,240 // je 1f24c <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1f24f <_sk_store_u16_be_sse41+0xf0>
+ .byte 114,227 // jb 1f24c <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 1f24f <_sk_store_u16_be_sse41+0xf0>
+ .byte 235,213 // jmp 1f24c <_sk_store_u16_be_sse41+0xf0>
HIDDEN _sk_load_f32_sse41
.globl _sk_load_f32_sse41
@@ -39522,7 +39525,7 @@ _sk_load_f32_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1f2e5 <_sk_load_f32_sse41+0x6b>
+ .byte 117,66 // jne 1f2e2 <_sk_load_f32_sse41+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -39542,17 +39545,17 @@ _sk_load_f32_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 1f2f7 <_sk_load_f32_sse41+0x7d>
+ .byte 117,8 // jne 1f2f4 <_sk_load_f32_sse41+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 1f2b5 <_sk_load_f32_sse41+0x3b>
+ .byte 235,190 // jmp 1f2b2 <_sk_load_f32_sse41+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 1f30b <_sk_load_f32_sse41+0x91>
+ .byte 114,8 // jb 1f308 <_sk_load_f32_sse41+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 1f2b5 <_sk_load_f32_sse41+0x3b>
+ .byte 235,170 // jmp 1f2b2 <_sk_load_f32_sse41+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 1f2b5 <_sk_load_f32_sse41+0x3b>
+ .byte 235,165 // jmp 1f2b2 <_sk_load_f32_sse41+0x3b>
HIDDEN _sk_load_f32_dst_sse41
.globl _sk_load_f32_dst_sse41
@@ -39568,7 +39571,7 @@ _sk_load_f32_dst_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1f37b <_sk_load_f32_dst_sse41+0x6b>
+ .byte 117,66 // jne 1f378 <_sk_load_f32_dst_sse41+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -39588,17 +39591,17 @@ _sk_load_f32_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 1f38d <_sk_load_f32_dst_sse41+0x7d>
+ .byte 117,8 // jne 1f38a <_sk_load_f32_dst_sse41+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 1f34b <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,190 // jmp 1f348 <_sk_load_f32_dst_sse41+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 1f3a1 <_sk_load_f32_dst_sse41+0x91>
+ .byte 114,8 // jb 1f39e <_sk_load_f32_dst_sse41+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 1f34b <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,170 // jmp 1f348 <_sk_load_f32_dst_sse41+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 1f34b <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,165 // jmp 1f348 <_sk_load_f32_dst_sse41+0x3b>
HIDDEN _sk_store_f32_sse41
.globl _sk_store_f32_sse41
@@ -39627,7 +39630,7 @@ _sk_store_f32_sse41:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 1f423 <_sk_store_f32_sse41+0x7d>
+ .byte 117,29 // jne 1f420 <_sk_store_f32_sse41+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -39635,12 +39638,12 @@ _sk_store_f32_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 1f41f <_sk_store_f32_sse41+0x79>
+ .byte 116,246 // je 1f41c <_sk_store_f32_sse41+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 1f41f <_sk_store_f32_sse41+0x79>
+ .byte 114,234 // jb 1f41c <_sk_store_f32_sse41+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 1f41f <_sk_store_f32_sse41+0x79>
+ .byte 235,225 // jmp 1f41c <_sk_store_f32_sse41+0x79>
HIDDEN _sk_repeat_x_sse41
.globl _sk_repeat_x_sse41
@@ -39686,7 +39689,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,221,53,1,0 // mulss 0x135dd(%rip),%xmm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 243,68,15,89,13,16,48,1,0 // mulss 0x13010(%rip),%xmm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -39711,7 +39714,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,132,53,1,0 // mulss 0x13584(%rip),%xmm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 243,68,15,89,13,183,47,1,0 // mulss 0x12fb7(%rip),%xmm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -39730,7 +39733,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,100,55,1,0 // minps 0x13764(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,93,5,247,54,1,0 // minps 0x136f7(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -39743,7 +39746,7 @@ _sk_repeat_x_1_sse41:
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,65,55,1,0 // minps 0x13741(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,93,5,212,54,1,0 // minps 0x136d4(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -39752,9 +39755,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,145,55,1,0 // movaps 0x13791(%rip),%xmm8 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 68,15,40,5,36,55,1,0 // movaps 0x13724(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa88>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,21,55,1,0 // movaps 0x13715(%rip),%xmm9 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,13,168,54,1,0 // movaps 0x136a8(%rip),%xmm9 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -39765,7 +39768,7 @@ _sk_mirror_x_1_sse41:
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 68,15,84,200 // andps %xmm0,%xmm9
.byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 68,15,93,5,242,54,1,0 // minps 0x136f2(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,93,5,133,54,1,0 // minps 0x13685(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -39775,10 +39778,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,64,60,1,0 // mulps 0x13c40(%rip),%xmm0 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
- .byte 15,89,13,73,60,1,0 // mulps 0x13c49(%rip),%xmm1 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
+ .byte 15,89,5,211,59,1,0 // mulps 0x13bd3(%rip),%xmm0 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf88>
+ .byte 15,89,13,220,59,1,0 // mulps 0x13bdc(%rip),%xmm1 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf98>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,79,60,1,0 // mulps 0x13c4f(%rip),%xmm3 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
+ .byte 15,89,29,226,59,1,0 // mulps 0x13be2(%rip),%xmm3 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa8>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -40090,9 +40093,9 @@ _sk_evenly_spaced_gradient_sse41:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 1fa91 <_sk_evenly_spaced_gradient_sse41+0x18>
+ .byte 120,7 // js 1fa8e <_sk_evenly_spaced_gradient_sse41+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 1faa6 <_sk_evenly_spaced_gradient_sse41+0x2d>
+ .byte 235,21 // jmp 1faa3 <_sk_evenly_spaced_gradient_sse41+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -40181,15 +40184,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,254,53,1,0 // movaps 0x135fe(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
+ .byte 15,40,5,145,53,1,0 // movaps 0x13591(%rip),%xmm0 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,4,54,1,0 // addps 0x13604(%rip),%xmm0 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
+ .byte 15,88,5,151,53,1,0 // addps 0x13597(%rip),%xmm0 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfc8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,10,54,1,0 // addps 0x1360a(%rip),%xmm0 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
+ .byte 15,88,5,157,53,1,0 // addps 0x1359d(%rip),%xmm0 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0xfd8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,16,54,1,0 // addps 0x13610(%rip),%xmm0 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 15,88,5,163,53,1,0 // addps 0x135a3(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0xfe8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,22,54,1,0 // addps 0x13616(%rip),%xmm0 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 15,88,5,169,53,1,0 // addps 0x135a9(%rip),%xmm0 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0xff8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -40204,7 +40207,7 @@ _sk_gradient_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 1fcbf <_sk_gradient_sse41+0x38>
+ .byte 114,41 // jb 1fcbc <_sk_gradient_sse41+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -40215,7 +40218,7 @@ _sk_gradient_sse41:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 1fca5 <_sk_gradient_sse41+0x1e>
+ .byte 117,230 // jne 1fca2 <_sk_gradient_sse41+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
@@ -40346,26 +40349,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,141,51,1,0 // movaps 0x1338d(%rip),%xmm10 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,21,32,51,1,0 // movaps 0x13320(%rip),%xmm10 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x1008>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,145,51,1,0 // addps 0x13391(%rip),%xmm10 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
+ .byte 68,15,88,21,36,51,1,0 // addps 0x13324(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1018>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,149,51,1,0 // addps 0x13395(%rip),%xmm10 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,21,40,51,1,0 // addps 0x13328(%rip),%xmm10 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1028>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,153,51,1,0 // addps 0x13399(%rip),%xmm10 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,88,21,44,51,1,0 // addps 0x1332c(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1038>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,152,51,1,0 // movaps 0x13398(%rip),%xmm11 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,29,43,51,1,0 // movaps 0x1332b(%rip),%xmm11 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1048>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,81,45,1,0 // movaps 0x12d51(%rip),%xmm11 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,29,228,44,1,0 // movaps 0x12ce4(%rip),%xmm11 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,67,45,1,0 // movaps 0x12d43(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,214,44,1,0 // movaps 0x12cd6(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -40399,7 +40402,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,12,51,1,0 // mulps 0x1330c(%rip),%xmm9 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,89,13,159,50,1,0 // mulps 0x1329f(%rip),%xmm9 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -40407,7 +40410,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,247,50,1,0 // mulps 0x132f7(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,89,21,138,50,1,0 // mulps 0x1328a(%rip),%xmm10 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1068>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -40416,8 +40419,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,159,49,1,0 // xorps 0x1319f(%rip),%xmm9 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
- .byte 68,15,89,5,119,44,1,0 // mulps 0x12c77(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,87,13,50,49,1,0 // xorps 0x13132(%rip),%xmm9 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
+ .byte 68,15,89,5,10,44,1,0 // mulps 0x12c0a(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -40438,7 +40441,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,110,50,1,0 // mulps 0x1326e(%rip),%xmm9 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,89,13,1,50,1,0 // mulps 0x13201(%rip),%xmm9 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -40446,7 +40449,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,89,50,1,0 // mulps 0x13259(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,89,21,236,49,1,0 // mulps 0x131ec(%rip),%xmm10 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1068>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -40455,8 +40458,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,1,49,1,0 // xorps 0x13101(%rip),%xmm9 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
- .byte 68,15,89,5,217,43,1,0 // mulps 0x12bd9(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,87,13,148,48,1,0 // xorps 0x13094(%rip),%xmm9 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
+ .byte 68,15,89,5,108,43,1,0 // mulps 0x12b6c(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -40474,7 +40477,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,225,49,1,0 // mulps 0x131e1(%rip),%xmm9 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,89,13,116,49,1,0 // mulps 0x13174(%rip),%xmm9 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -40482,7 +40485,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,157,48,1,0 // xorps 0x1309d(%rip),%xmm0 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 15,87,5,48,48,1,0 // xorps 0x13030(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40530,7 +40533,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,252,42,1,0 // movaps 0x12afc(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,143,42,1,0 // movaps 0x12a8f(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -40574,8 +40577,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,197,48,1,0 // addps 0x130c5(%rip),%xmm0 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,109,42,1,0 // movaps 0x12a6d(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,88,48,1,0 // addps 0x13058(%rip),%xmm0 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ .byte 68,15,40,13,0,42,1,0 // movaps 0x12a00(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40588,7 +40591,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,57,42,1,0 // addps 0x12a39(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,5,204,41,1,0 // addps 0x129cc(%rip),%xmm0 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40600,8 +40603,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,120,48,1,0 // addps 0x13078(%rip),%xmm1 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,32,42,1,0 // movaps 0x12a20(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,11,48,1,0 // addps 0x1300b(%rip),%xmm1 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ .byte 68,15,40,13,179,41,1,0 // movaps 0x129b3(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40614,7 +40617,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,235,41,1,0 // addps 0x129eb(%rip),%xmm1 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,13,126,41,1,0 // addps 0x1297e(%rip),%xmm1 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40626,13 +40629,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,59,48,1,0 // addps 0x1303b(%rip),%xmm0 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,40,13,211,41,1,0 // movaps 0x129d3(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,206,47,1,0 // addps 0x12fce(%rip),%xmm0 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1088>
+ .byte 68,15,40,13,102,41,1,0 // movaps 0x12966(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,47,48,1,0 // mulps 0x1302f(%rip),%xmm9 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
- .byte 68,15,88,13,183,43,1,0 // addps 0x12bb7(%rip),%xmm9 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,13,194,47,1,0 // mulps 0x12fc2(%rip),%xmm9 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ .byte 68,15,88,13,74,43,1,0 // addps 0x12b4a(%rip),%xmm9 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40645,16 +40648,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,227,47,1,0 // addps 0x12fe3(%rip),%xmm0 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,139,41,1,0 // movaps 0x1298b(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,118,47,1,0 // addps 0x12f76(%rip),%xmm0 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ .byte 68,15,40,13,30,41,1,0 // movaps 0x1291e(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,255,47,1,0 // movaps 0x12fff(%rip),%xmm8 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,40,5,146,47,1,0 // movaps 0x12f92(%rip),%xmm8 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,3,48,1,0 // addps 0x13003(%rip),%xmm8 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,5,150,47,1,0 // addps 0x12f96(%rip),%xmm8 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,87,41,1,0 // addps 0x12957(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,5,234,40,1,0 // addps 0x128ea(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,251,47,1,0 // addps 0x12ffb(%rip),%xmm8 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 68,15,88,5,142,47,1,0 // addps 0x12f8e(%rip),%xmm8 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40664,17 +40667,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,53,41,1,0 // movaps 0x12935(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,200,40,1,0 // movaps 0x128c8(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,174,47,1,0 // movaps 0x12fae(%rip),%xmm10 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,40,21,65,47,1,0 // movaps 0x12f41(%rip),%xmm10 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,178,47,1,0 // addps 0x12fb2(%rip),%xmm10 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,21,69,47,1,0 // addps 0x12f45(%rip),%xmm10 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,174,47,1,0 // addps 0x12fae(%rip),%xmm10 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 68,15,88,21,65,47,1,0 // addps 0x12f41(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40686,11 +40689,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,126,47,1,0 // addps 0x12f7e(%rip),%xmm0 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 15,88,5,17,47,1,0 // addps 0x12f11(%rip),%xmm0 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,78,47,1,0 // mulps 0x12f4e(%rip),%xmm8 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
- .byte 68,15,88,5,214,42,1,0 // addps 0x12ad6(%rip),%xmm8 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,5,225,46,1,0 // mulps 0x12ee1(%rip),%xmm8 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ .byte 68,15,88,5,105,42,1,0 // addps 0x12a69(%rip),%xmm8 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40703,13 +40706,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,17,47,1,0 // addps 0x12f11(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,40,13,169,40,1,0 // movaps 0x128a9(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,164,46,1,0 // addps 0x12ea4(%rip),%xmm1 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1088>
+ .byte 68,15,40,13,60,40,1,0 // movaps 0x1283c(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,5,47,1,0 // mulps 0x12f05(%rip),%xmm9 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
- .byte 68,15,88,13,141,42,1,0 // addps 0x12a8d(%rip),%xmm9 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,13,152,46,1,0 // mulps 0x12e98(%rip),%xmm9 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ .byte 68,15,88,13,32,42,1,0 // addps 0x12a20(%rip),%xmm9 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40722,16 +40725,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,184,46,1,0 // addps 0x12eb8(%rip),%xmm1 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,96,40,1,0 // movaps 0x12860(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,75,46,1,0 // addps 0x12e4b(%rip),%xmm1 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ .byte 68,15,40,13,243,39,1,0 // movaps 0x127f3(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,212,46,1,0 // movaps 0x12ed4(%rip),%xmm8 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,40,5,103,46,1,0 // movaps 0x12e67(%rip),%xmm8 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,216,46,1,0 // addps 0x12ed8(%rip),%xmm8 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,5,107,46,1,0 // addps 0x12e6b(%rip),%xmm8 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,44,40,1,0 // addps 0x1282c(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,5,191,39,1,0 // addps 0x127bf(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,208,46,1,0 // addps 0x12ed0(%rip),%xmm8 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 68,15,88,5,99,46,1,0 // addps 0x12e63(%rip),%xmm8 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40741,17 +40744,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,10,40,1,0 // movaps 0x1280a(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,157,39,1,0 // movaps 0x1279d(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,130,46,1,0 // movaps 0x12e82(%rip),%xmm10 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,40,21,21,46,1,0 // movaps 0x12e15(%rip),%xmm10 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,134,46,1,0 // addps 0x12e86(%rip),%xmm10 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,21,25,46,1,0 // addps 0x12e19(%rip),%xmm10 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,130,46,1,0 // addps 0x12e82(%rip),%xmm10 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 68,15,88,21,21,46,1,0 // addps 0x12e15(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40763,11 +40766,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,81,46,1,0 // addps 0x12e51(%rip),%xmm1 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 15,88,13,228,45,1,0 // addps 0x12de4(%rip),%xmm1 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,33,46,1,0 // mulps 0x12e21(%rip),%xmm8 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
- .byte 68,15,88,5,169,41,1,0 // addps 0x129a9(%rip),%xmm8 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,5,180,45,1,0 // mulps 0x12db4(%rip),%xmm8 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ .byte 68,15,88,5,60,41,1,0 // addps 0x1293c(%rip),%xmm8 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40878,7 +40881,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,12,45,1,0 // movaps 0x12d0c(%rip),%xmm4 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 15,40,37,159,44,1,0 // movaps 0x12c9f(%rip),%xmm4 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x10d8>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -40917,7 +40920,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,99,44,1,0 // movdqa 0x12c63(%rip),%xmm12 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,68,15,111,37,246,43,1,0 // movdqa 0x12bf6(%rip),%xmm12 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -40940,7 +40943,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,87,37,1,0 // movdqa 0x12557(%rip),%xmm4 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,37,234,36,1,0 // movdqa 0x124ea(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -41113,7 +41116,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,114,40,1,0 // movdqa 0x12872(%rip),%xmm5 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,45,5,40,1,0 // movdqa 0x12805(%rip),%xmm5 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -41134,7 +41137,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,115,33,1,0 // movdqa 0x12173(%rip),%xmm7 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,61,6,33,1,0 // movdqa 0x12106(%rip),%xmm7 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -41200,7 +41203,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,174,38,1,0 // movdqa 0x126ae(%rip),%xmm1 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,13,65,38,1,0 // movdqa 0x12641(%rip),%xmm1 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -41221,7 +41224,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,169,31,1,0 // movdqa 0x11fa9(%rip),%xmm2 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,21,60,31,1,0 // movdqa 0x11f3c(%rip),%xmm2 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -41348,7 +41351,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,12,36,1,0 // movaps 0x1240c(%rip),%xmm3 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 15,40,29,159,35,1,0 // movaps 0x1239f(%rip),%xmm3 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x10d8>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -41405,7 +41408,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,11,35,1,0 // movdqa 0x1230b(%rip),%xmm11 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,68,15,111,29,158,34,1,0 // movdqa 0x1229e(%rip),%xmm11 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -41427,7 +41430,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,3,28,1,0 // movdqa 0x11c03(%rip),%xmm10 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,21,150,27,1,0 // movdqa 0x11b96(%rip),%xmm10 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -41445,7 +41448,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,65,34,1,0 // psubd 0x12241(%rip),%xmm3 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,29,212,33,1,0 // psubd 0x121d4(%rip),%xmm3 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -41500,7 +41503,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,33,33,1,0 // psubd 0x12121(%rip),%xmm5 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,45,180,32,1,0 // psubd 0x120b4(%rip),%xmm5 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -41625,7 +41628,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,245,23,1,0 // movdqa 0x117f5(%rip),%xmm7 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,61,136,23,1,0 // movdqa 0x11788(%rip),%xmm7 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -41711,7 +41714,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,57,22,1,0 // movdqa 0x11639(%rip),%xmm10 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,21,204,21,1,0 // movdqa 0x115cc(%rip),%xmm10 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -41807,7 +41810,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,227,26,1,0 // movdqa 0x11ae3(%rip),%xmm2 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,21,118,26,1,0 // movdqa 0x11a76(%rip),%xmm2 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -41828,7 +41831,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,226,19,1,0 // movdqa 0x113e2(%rip),%xmm4 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,37,117,19,1,0 // movdqa 0x11375(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -41900,7 +41903,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,14,25,1,0 // psubd 0x1190e(%rip),%xmm2 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,21,161,24,1,0 // psubd 0x118a1(%rip),%xmm2 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -41934,7 +41937,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,90,24,1,0 // psubd 0x1185a(%rip),%xmm1 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,13,237,23,1,0 // psubd 0x117ed(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -41999,7 +42002,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,241,22,1,0 // movdqa 0x116f1(%rip),%xmm4 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,37,132,22,1,0 // movdqa 0x11684(%rip),%xmm4 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -42020,7 +42023,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,242,15,1,0 // movdqa 0x10ff2(%rip),%xmm3 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,29,133,15,1,0 // movdqa 0x10f85(%rip),%xmm3 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -42092,7 +42095,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,34,21,1,0 // psubd 0x11522(%rip),%xmm0 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,5,181,20,1,0 // psubd 0x114b5(%rip),%xmm0 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -42110,7 +42113,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,32,14,1,0 // paddd 0x10e20(%rip),%xmm0 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,5,179,13,1,0 // paddd 0x10db3(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -42126,7 +42129,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,105,20,1,0 // psubd 0x11469(%rip),%xmm0 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,5,252,19,1,0 // psubd 0x113fc(%rip),%xmm0 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -42144,7 +42147,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,103,13,1,0 // paddd 0x10d67(%rip),%xmm0 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,5,250,12,1,0 // paddd 0x10cfa(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -42207,7 +42210,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,36,12,1,0 // movaps 0x10c24(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,183,11,1,0 // movaps 0x10bb7(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -42243,13 +42246,13 @@ _sk_start_pipeline_sse2:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2217e <_sk_start_pipeline_sse2+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2217b <_sk_start_pipeline_sse2+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 2214c <_sk_start_pipeline_sse2+0x84>
+ .byte 119,59 // ja 22149 <_sk_start_pipeline_sse2+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -42268,10 +42271,10 @@ _sk_start_pipeline_sse2:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 22115 <_sk_start_pipeline_sse2+0x4d>
+ .byte 118,201 // jbe 22112 <_sk_start_pipeline_sse2+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 22175 <_sk_start_pipeline_sse2+0xad>
+ .byte 116,33 // je 22172 <_sk_start_pipeline_sse2+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -42285,7 +42288,7 @@ _sk_start_pipeline_sse2:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 22107 <_sk_start_pipeline_sse2+0x3f>
+ .byte 117,137 // jne 22104 <_sk_start_pipeline_sse2+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -42305,16 +42308,18 @@ HIDDEN _sk_seed_shader_sse2
.globl _sk_seed_shader_sse2
FUNCTION(_sk_seed_shader_sse2)
_sk_seed_shader_sse2:
+ .byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,255,10,1,0 // addps 0x10aff(%rip),%xmm0 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
+ .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
+ .byte 15,16,0 // movups (%rax),%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,252,10,1,0 // addps 0x10afc(%rip),%xmm1 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,13,142,10,1,0 // addps 0x10a8e(%rip),%xmm1 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,3,11,1,0 // movaps 0x10b03(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,149,10,1,0 // movaps 0x10a95(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -42329,18 +42334,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,156,10,1,0 // paddd 0x10a9c(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
+ .byte 102,68,15,254,5,62,10,1,0 // paddd 0x10a3e(%rip),%xmm8 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,211,10,1,0 // movdqa 0x10ad3(%rip),%xmm10 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
+ .byte 102,68,15,111,21,101,10,1,0 // movdqa 0x10a65(%rip),%xmm10 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xa38>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,191,10,1,0 // movdqa 0x10abf(%rip),%xmm12 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
- .byte 102,68,15,111,45,198,10,1,0 // movdqa 0x10ac6(%rip),%xmm13 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,37,81,10,1,0 // movdqa 0x10a51(%rip),%xmm12 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xa48>
+ .byte 102,68,15,111,45,88,10,1,0 // movdqa 0x10a58(%rip),%xmm13 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -42356,8 +42361,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,129,10,1,0 // mulps 0x10a81(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
- .byte 68,15,88,5,137,10,1,0 // addps 0x10a89(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 68,15,89,5,19,10,1,0 // mulps 0x10a13(%rip),%xmm8 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xa68>
+ .byte 68,15,88,5,27,10,1,0 // addps 0x10a1b(%rip),%xmm8 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xa78>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -42399,7 +42404,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,191,9,1,0 // movaps 0x109bf(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,81,9,1,0 // movaps 0x10951(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -42410,7 +42415,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,171,9,1,0 // movaps 0x109ab(%rip),%xmm0 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,5,61,9,1,0 // movaps 0x1093d(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -42456,7 +42461,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,91,9,1,0 // movaps 0x1095b(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,237,8,1,0 // movaps 0x108ed(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -42481,7 +42486,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,14,9,1,0 // movaps 0x1090e(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,160,8,1,0 // movaps 0x108a0(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -42528,7 +42533,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,162,8,1,0 // movaps 0x108a2(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,52,8,1,0 // movaps 0x10834(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -42541,7 +42546,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,130,8,1,0 // movaps 0x10882(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,20,8,1,0 // movaps 0x10814(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -42558,7 +42563,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,85,8,1,0 // movaps 0x10855(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,231,7,1,0 // movaps 0x107e7(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -42578,7 +42583,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,25,8,1,0 // movaps 0x10819(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,171,7,1,0 // movaps 0x107ab(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -42606,7 +42611,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,221,7,1,0 // movaps 0x107dd(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,111,7,1,0 // movaps 0x1076f(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -42644,7 +42649,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,94,7,1,0 // movaps 0x1075e(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,240,6,1,0 // movaps 0x106f0(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -42686,7 +42691,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,234,6,1,0 // movaps 0x106ea(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,124,6,1,0 // movaps 0x1067c(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -42734,7 +42739,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,69,6,1,0 // movaps 0x10645(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,215,5,1,0 // movaps 0x105d7(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42768,7 +42773,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,218,5,1,0 // movaps 0x105da(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,108,5,1,0 // movaps 0x1056c(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42805,7 +42810,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,100,5,1,0 // movaps 0x10564(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,246,4,1,0 // movaps 0x104f6(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42833,7 +42838,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,20,5,1,0 // movaps 0x10514(%rip),%xmm2 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,166,4,1,0 // movaps 0x104a6(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42846,7 +42851,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,247,4,1,0 // movaps 0x104f7(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,137,4,1,0 // movaps 0x10489(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -42941,7 +42946,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,159,3,1,0 // movaps 0x1039f(%rip),%xmm10 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,49,3,1,0 // movaps 0x10331(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -43033,7 +43038,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,72,2,1,0 // movaps 0x10248(%rip),%xmm11 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,29,218,1,1,0 // movaps 0x101da(%rip),%xmm11 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -43121,7 +43126,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,6,1,1,0 // movaps 0x10106(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,152,0,1,0 // movaps 0x10098(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -43212,7 +43217,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,179,255,0,0 // movaps 0xffb3(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,69,255,0,0 // movaps 0xff45(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -43225,10 +43230,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,221,255,0,0 // movaps 0xffdd(%rip),%xmm14 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 68,15,40,53,111,255,0,0 // movaps 0xff6f(%rip),%xmm14 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa88>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,221,255,0,0 // movaps 0xffdd(%rip),%xmm10 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 68,15,40,21,111,255,0,0 // movaps 0xff6f(%rip),%xmm10 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa98>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -43373,7 +43378,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,112,253,0,0 // movaps 0xfd70(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,2,253,0,0 // movaps 0xfd02(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -43421,12 +43426,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,45,253,0,0 // movaps 0xfd2d(%rip),%xmm15 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,61,191,252,0,0 // movaps 0xfcbf(%rip),%xmm15 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,50,253,0,0 // movaps 0xfd32(%rip),%xmm0 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 15,40,5,196,252,0,0 // movaps 0xfcc4(%rip),%xmm0 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,52,253,0,0 // movaps 0xfd34(%rip),%xmm14 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,53,198,252,0,0 // movaps 0xfcc6(%rip),%xmm14 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -43604,14 +43609,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,134,250,0,0 // movaps 0xfa86(%rip),%xmm8 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,24,250,0,0 // movaps 0xfa18(%rip),%xmm8 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,136,250,0,0 // movaps 0xfa88(%rip),%xmm1 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 15,40,13,26,250,0,0 // movaps 0xfa1a(%rip),%xmm1 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,135,250,0,0 // movaps 0xfa87(%rip),%xmm12 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,37,25,250,0,0 // movaps 0xfa19(%rip),%xmm12 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -43656,7 +43661,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,60,249,0,0 // movaps 0xf93c(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,206,248,0,0 // movaps 0xf8ce(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -43757,14 +43762,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,74,248,0,0 // movaps 0xf84a(%rip),%xmm13 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,45,220,247,0,0 // movaps 0xf7dc(%rip),%xmm13 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,74,248,0,0 // movaps 0xf84a(%rip),%xmm14 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,53,220,247,0,0 // movaps 0xf7dc(%rip),%xmm14 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,70,248,0,0 // movaps 0xf846(%rip),%xmm11 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,29,216,247,0,0 // movaps 0xf7d8(%rip),%xmm11 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -43772,7 +43777,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,130,247,0,0 // movaps 0xf782(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,20,247,0,0 // movaps 0xf714(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -43908,15 +43913,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,9,246,0,0 // movaps 0xf609(%rip),%xmm12 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,37,155,245,0,0 // movaps 0xf59b(%rip),%xmm12 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,9,246,0,0 // movaps 0xf609(%rip),%xmm13 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,45,155,245,0,0 // movaps 0xf59b(%rip),%xmm13 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xab8>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,5,246,0,0 // movaps 0xf605(%rip),%xmm11 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
- .byte 68,15,40,5,93,245,0,0 // movaps 0xf55d(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,29,151,245,0,0 // movaps 0xf597(%rip),%xmm11 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac8>
+ .byte 68,15,40,5,239,244,0,0 // movaps 0xf4ef(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -44057,10 +44062,10 @@ _sk_srcover_rgba_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,228,0,0,0 // jne 23a4e <_sk_srcover_rgba_8888_sse2+0x104>
+ .byte 15,133,228,0,0,0 // jne 23a4c <_sk_srcover_rgba_8888_sse2+0x104>
.byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,245,243,0,0 // movdqa 0xf3f5(%rip),%xmm6 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,53,135,243,0,0 // movdqa 0xf387(%rip),%xmm6 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -44074,9 +44079,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,5,243,0,0 // movaps 0xf305(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,151,242,0,0 // movaps 0xf297(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,217,243,0,0 // movaps 0xf3d9(%rip),%xmm12 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,37,107,243,0,0 // movaps 0xf36b(%rip),%xmm12 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -44102,7 +44107,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,84 // jne 23a88 <_sk_srcover_rgba_8888_sse2+0x13e>
+ .byte 117,84 // jne 23a86 <_sk_srcover_rgba_8888_sse2+0x13e>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -44113,32 +44118,32 @@ _sk_srcover_rgba_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,90 // je 23ab5 <_sk_srcover_rgba_8888_sse2+0x16b>
+ .byte 116,90 // je 23ab3 <_sk_srcover_rgba_8888_sse2+0x16b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 23a7d <_sk_srcover_rgba_8888_sse2+0x133>
+ .byte 116,23 // je 23a7b <_sk_srcover_rgba_8888_sse2+0x133>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,0,255,255,255 // jne 23970 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 15,133,0,255,255,255 // jne 2396e <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,18,4,128 // movlpd (%r8,%rax,4),%xmm8
- .byte 233,232,254,255,255 // jmpq 23970 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,232,254,255,255 // jmpq 2396e <_sk_srcover_rgba_8888_sse2+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 23ac0 <_sk_srcover_rgba_8888_sse2+0x176>
+ .byte 116,43 // je 23abe <_sk_srcover_rgba_8888_sse2+0x176>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 23aad <_sk_srcover_rgba_8888_sse2+0x163>
+ .byte 116,18 // je 23aab <_sk_srcover_rgba_8888_sse2+0x163>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 23a3a <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 117,153 // jne 23a38 <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,128,8 // movd %xmm1,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,133 // jmp 23a3a <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 235,133 // jmp 23a38 <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,69,15,110,4,128 // movd (%r8,%rax,4),%xmm8
- .byte 233,176,254,255,255 // jmpq 23970 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,176,254,255,255 // jmpq 2396e <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,111,255,255,255 // jmpq 23a3a <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 233,111,255,255,255 // jmpq 23a38 <_sk_srcover_rgba_8888_sse2+0xf0>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -44156,7 +44161,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,213,241,0,0 // movaps 0xf1d5(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,103,241,0,0 // movaps 0xf167(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -44168,7 +44173,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,186,241,0,0 // minps 0xf1ba(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,29,76,241,0,0 // minps 0xf14c(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -44179,7 +44184,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,166,241,0,0 // minps 0xf1a6(%rip),%xmm7 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,61,56,241,0,0 // minps 0xf138(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -44214,7 +44219,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,98,241,0,0 // movaps 0xf162(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,244,240,0,0 // movaps 0xf0f4(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -44275,10 +44280,10 @@ HIDDEN _sk_unpremul_sse2
.globl _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
- .byte 68,15,40,5,240,240,0,0 // movaps 0xf0f0(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,130,240,0,0 // movaps 0xf082(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,94,195 // divps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,207,241,0,0,1 // cmpltps 0xf1cf(%rip),%xmm9 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
+ .byte 68,15,194,13,97,241,0,0,1 // cmpltps 0xf161(%rip),%xmm9 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb18>
.byte 69,15,84,200 // andps %xmm8,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,201 // mulps %xmm9,%xmm1
@@ -44290,20 +44295,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,195,241,0,0 // movaps 0xf1c3(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 68,15,40,5,85,241,0,0 // movaps 0xf155(%rip),%xmm8 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb28>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,43,241,0,0 // movaps 0xf12b(%rip),%xmm9 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,13,189,240,0,0 // movaps 0xf0bd(%rip),%xmm9 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,171,241,0,0 // movaps 0xf1ab(%rip),%xmm10 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 68,15,40,21,61,241,0,0 // movaps 0xf13d(%rip),%xmm10 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb38>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,171,241,0,0 // movaps 0xf1ab(%rip),%xmm11 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 68,15,40,29,61,241,0,0 // movaps 0xf13d(%rip),%xmm11 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb48>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,175,241,0,0 // movaps 0xf1af(%rip),%xmm12 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 68,15,40,37,65,241,0,0 // movaps 0xf141(%rip),%xmm12 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb58>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -44339,20 +44344,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,0,241,0,0 // movaps 0xf100(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 68,15,40,5,146,240,0,0 // movaps 0xf092(%rip),%xmm8 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xb28>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,104,240,0,0 // movaps 0xf068(%rip),%xmm9 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,13,250,239,0,0 // movaps 0xeffa(%rip),%xmm9 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa8>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,232,240,0,0 // movaps 0xf0e8(%rip),%xmm10 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 68,15,40,21,122,240,0,0 // movaps 0xf07a(%rip),%xmm10 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xb38>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,232,240,0,0 // movaps 0xf0e8(%rip),%xmm11 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 68,15,40,29,122,240,0,0 // movaps 0xf07a(%rip),%xmm11 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb48>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,236,240,0,0 // movaps 0xf0ec(%rip),%xmm12 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 68,15,40,37,126,240,0,0 // movaps 0xf07e(%rip),%xmm12 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xb58>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -44389,22 +44394,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,121,240,0,0 // movaps 0xf079(%rip),%xmm8 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
+ .byte 68,15,40,5,11,240,0,0 // movaps 0xf00b(%rip),%xmm8 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xb68>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,121,240,0,0 // movaps 0xf079(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
+ .byte 68,15,40,13,11,240,0,0 // movaps 0xf00b(%rip),%xmm9 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb78>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,121,240,0,0 // movaps 0xf079(%rip),%xmm10 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
+ .byte 68,15,40,21,11,240,0,0 // movaps 0xf00b(%rip),%xmm10 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xb88>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,121,240,0,0 // movaps 0xf079(%rip),%xmm11 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
+ .byte 68,15,40,29,11,240,0,0 // movaps 0xf00b(%rip),%xmm11 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb98>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,125,240,0,0 // movaps 0xf07d(%rip),%xmm12 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
+ .byte 68,15,40,37,15,240,0,0 // movaps 0xf00f(%rip),%xmm12 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xba8>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,121,240,0,0 // movaps 0xf079(%rip),%xmm15 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,40,61,11,240,0,0 // movaps 0xf00b(%rip),%xmm15 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb8>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -44456,7 +44461,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,44,238,0,0 // movaps 0xee2c(%rip),%xmm13 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,45,190,237,0,0 // movaps 0xedbe(%rip),%xmm13 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -44465,30 +44470,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,162,239,0,0 // andps 0xefa2(%rip),%xmm14 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,84,53,52,239,0,0 // andps 0xef34(%rip),%xmm14 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xbc8>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,149,239,0,0 // movaps 0xef95(%rip),%xmm12 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 68,15,40,37,39,239,0,0 // movaps 0xef27(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xbd8>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,145,239,0,0 // addps 0xef91(%rip),%xmm8 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 68,15,88,5,35,239,0,0 // addps 0xef23(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xbe8>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,130,239,0,0 // mulps 0xef82(%rip),%xmm0 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 15,89,5,20,239,0,0 // mulps 0xef14(%rip),%xmm0 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xbf8>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,133,237,0,0 // movaps 0xed85(%rip),%xmm9 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,13,23,237,0,0 // movaps 0xed17(%rip),%xmm9 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -44512,7 +44517,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,52,237,0,0 // movaps 0xed34(%rip),%xmm9 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,13,198,236,0,0 // movaps 0xecc6(%rip),%xmm9 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -44529,28 +44534,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,221,238,0,0 // movaps 0xeedd(%rip),%xmm0 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 15,40,5,111,238,0,0 // movaps 0xee6f(%rip),%xmm0 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xc08>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,229,236,0,0 // andps 0xece5(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,84,29,119,236,0,0 // andps 0xec77(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,199,238,0,0 // movaps 0xeec7(%rip),%xmm13 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,40,45,89,238,0,0 // movaps 0xee59(%rip),%xmm13 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xc18>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,135,238,0,0 // movaps 0xee87(%rip),%xmm2 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 15,40,21,25,238,0,0 // movaps 0xee19(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xbf8>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,71,238,0,0 // movaps 0xee47(%rip),%xmm1 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 15,40,13,217,237,0,0 // movaps 0xedd9(%rip),%xmm1 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xbc8>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,93,238,0,0 // movaps 0xee5d(%rip),%xmm5 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 15,40,45,239,237,0,0 // movaps 0xedef(%rip),%xmm5 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xbe8>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -44573,7 +44578,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,66,236,0,0 // andps 0xec42(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,84,29,212,235,0,0 // andps 0xebd4(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -44603,12 +44608,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,202,237,0,0 // addps 0xedca(%rip),%xmm6 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,88,53,92,237,0,0 // addps 0xed5c(%rip),%xmm6 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,181,235,0,0 // andps 0xebb5(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,84,29,71,235,0,0 // andps 0xeb47(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -44672,13 +44677,13 @@ _sk_scale_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,61 // jne 2420c <_sk_scale_u8_sse2+0x55>
+ .byte 117,61 // jne 2420a <_sk_scale_u8_sse2+0x55>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,136,235,0,0 // pand 0xeb88(%rip),%xmm8 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,219,5,26,235,0,0 // pand 0xeb1a(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,220,236,0,0 // mulps 0xecdc(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,89,5,110,236,0,0 // mulps 0xec6e(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -44689,12 +44694,12 @@ _sk_scale_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,61 // je 24256 <_sk_scale_u8_sse2+0x9f>
+ .byte 116,61 // je 24254 <_sk_scale_u8_sse2+0x9f>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 2423b <_sk_scale_u8_sse2+0x84>
+ .byte 116,23 // je 24239 <_sk_scale_u8_sse2+0x84>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 241df <_sk_scale_u8_sse2+0x28>
+ .byte 117,181 // jne 241dd <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -44703,10 +44708,10 @@ _sk_scale_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,137 // jmp 241df <_sk_scale_u8_sse2+0x28>
+ .byte 235,137 // jmp 241dd <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,122,255,255,255 // jmpq 241df <_sk_scale_u8_sse2+0x28>
+ .byte 233,122,255,255,255 // jmpq 241dd <_sk_scale_u8_sse2+0x28>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -44720,20 +44725,20 @@ _sk_scale_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 24331 <_sk_scale_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 2432f <_sk_scale_565_sse2+0xcc>
.byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,72,236,0,0 // movdqa 0xec48(%rip),%xmm8 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,68,15,111,5,218,235,0,0 // movdqa 0xebda(%rip),%xmm8 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,71,236,0,0 // mulps 0xec47(%rip),%xmm8 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
- .byte 102,68,15,111,13,78,236,0,0 // movdqa 0xec4e(%rip),%xmm9 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,89,5,217,235,0,0 // mulps 0xebd9(%rip),%xmm8 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 102,68,15,111,13,224,235,0,0 // movdqa 0xebe0(%rip),%xmm9 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,77,236,0,0 // mulps 0xec4d(%rip),%xmm9 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 102,68,15,219,21,84,236,0,0 // pand 0xec54(%rip),%xmm10 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,89,13,223,235,0,0 // mulps 0xebdf(%rip),%xmm9 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ .byte 102,68,15,219,21,230,235,0,0 // pand 0xebe6(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,88,236,0,0 // mulps 0xec58(%rip),%xmm10 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,21,234,235,0,0 // mulps 0xebea(%rip),%xmm10 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -44760,22 +44765,22 @@ _sk_scale_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 2437a <_sk_scale_565_sse2+0x115>
+ .byte 116,60 // je 24378 <_sk_scale_565_sse2+0x115>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 24364 <_sk_scale_565_sse2+0xff>
+ .byte 116,27 // je 24362 <_sk_scale_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 2428f <_sk_scale_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 2428d <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
.byte 102,71,15,110,4,80 // movd (%r8,%r10,2),%xmm8
.byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8
.byte 242,69,15,16,208 // movsd %xmm8,%xmm10
- .byte 233,21,255,255,255 // jmpq 2428f <_sk_scale_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 2428d <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,6,255,255,255 // jmpq 2428f <_sk_scale_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 2428d <_sk_scale_565_sse2+0x2a>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -44810,13 +44815,13 @@ _sk_lerp_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,81 // jne 2442a <_sk_lerp_u8_sse2+0x69>
+ .byte 117,81 // jne 24428 <_sk_lerp_u8_sse2+0x69>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,126,233,0,0 // pand 0xe97e(%rip),%xmm8 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,219,5,16,233,0,0 // pand 0xe910(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,210,234,0,0 // mulps 0xead2(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,89,5,100,234,0,0 // mulps 0xea64(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -44834,12 +44839,12 @@ _sk_lerp_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,64 // je 24477 <_sk_lerp_u8_sse2+0xb6>
+ .byte 116,64 // je 24475 <_sk_lerp_u8_sse2+0xb6>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 24459 <_sk_lerp_u8_sse2+0x98>
+ .byte 116,23 // je 24457 <_sk_lerp_u8_sse2+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 243e9 <_sk_lerp_u8_sse2+0x28>
+ .byte 117,161 // jne 243e7 <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -44848,10 +44853,10 @@ _sk_lerp_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,114,255,255,255 // jmpq 243e9 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,114,255,255,255 // jmpq 243e7 <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,99,255,255,255 // jmpq 243e9 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,99,255,255,255 // jmpq 243e7 <_sk_lerp_u8_sse2+0x28>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -44865,20 +44870,20 @@ _sk_lerp_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 24552 <_sk_lerp_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 24550 <_sk_lerp_565_sse2+0xcc>
.byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,39,234,0,0 // movdqa 0xea27(%rip),%xmm9 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,68,15,111,13,185,233,0,0 // movdqa 0xe9b9(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,38,234,0,0 // mulps 0xea26(%rip),%xmm9 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
- .byte 102,68,15,111,21,45,234,0,0 // movdqa 0xea2d(%rip),%xmm10 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 68,15,89,13,184,233,0,0 // mulps 0xe9b8(%rip),%xmm9 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 102,68,15,111,21,191,233,0,0 // movdqa 0xe9bf(%rip),%xmm10 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,44,234,0,0 // mulps 0xea2c(%rip),%xmm11 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 102,68,15,219,5,51,234,0,0 // pand 0xea33(%rip),%xmm8 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,89,29,190,233,0,0 // mulps 0xe9be(%rip),%xmm11 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ .byte 102,68,15,219,5,197,233,0,0 // pand 0xe9c5(%rip),%xmm8 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,55,234,0,0 // mulps 0xea37(%rip),%xmm8 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 68,15,89,5,201,233,0,0 // mulps 0xe9c9(%rip),%xmm8 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -44907,22 +44912,22 @@ _sk_lerp_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 2459b <_sk_lerp_565_sse2+0x115>
+ .byte 116,60 // je 24599 <_sk_lerp_565_sse2+0x115>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 24585 <_sk_lerp_565_sse2+0xff>
+ .byte 116,27 // je 24583 <_sk_lerp_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 244b0 <_sk_lerp_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 244ae <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
.byte 102,71,15,110,12,80 // movd (%r8,%r10,2),%xmm9
.byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,21,255,255,255 // jmpq 244b0 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 244ae <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,6,255,255,255 // jmpq 244b0 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 244ae <_sk_lerp_565_sse2+0x2a>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -44931,11 +44936,11 @@ _sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,34,1,0,0 // jne 246da <_sk_load_tables_sse2+0x130>
+ .byte 15,133,34,1,0,0 // jne 246d8 <_sk_load_tables_sse2+0x130>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,166,231,0,0 // movdqa 0xe7a6(%rip),%xmm8 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,111,5,56,231,0,0 // movdqa 0xe738(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -44991,7 +44996,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,253,231,0,0 // mulps 0xe7fd(%rip),%xmm3 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,29,143,231,0,0 // mulps 0xe78f(%rip),%xmm3 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -44999,18 +45004,18 @@ _sk_load_tables_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 24714 <_sk_load_tables_sse2+0x16a>
+ .byte 116,45 // je 24712 <_sk_load_tables_sse2+0x16a>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 24709 <_sk_load_tables_sse2+0x15f>
+ .byte 116,23 // je 24707 <_sk_load_tables_sse2+0x15f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,194,254,255,255 // jne 245be <_sk_load_tables_sse2+0x14>
+ .byte 15,133,194,254,255,255 // jne 245bc <_sk_load_tables_sse2+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,170,254,255,255 // jmpq 245be <_sk_load_tables_sse2+0x14>
+ .byte 233,170,254,255,255 // jmpq 245bc <_sk_load_tables_sse2+0x14>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,159,254,255,255 // jmpq 245be <_sk_load_tables_sse2+0x14>
+ .byte 233,159,254,255,255 // jmpq 245bc <_sk_load_tables_sse2+0x14>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -45020,7 +45025,7 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,93,1,0,0 // jne 24892 <_sk_load_tables_u16_be_sse2+0x173>
+ .byte 15,133,93,1,0,0 // jne 24890 <_sk_load_tables_u16_be_sse2+0x173>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -45031,7 +45036,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,215,231,0,0 // movdqa 0xe7d7(%rip),%xmm2 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 102,15,111,21,105,231,0,0 // movdqa 0xe769(%rip),%xmm2 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -45092,23 +45097,23 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,213,230,0,0 // mulps 0xe6d5(%rip),%xmm3 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,89,29,103,230,0,0 // mulps 0xe667(%rip),%xmm3 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 248ab <_sk_load_tables_u16_be_sse2+0x18c>
+ .byte 117,13 // jne 248a9 <_sk_load_tables_u16_be_sse2+0x18c>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,151,254,255,255 // jmpq 24742 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,151,254,255,255 // jmpq 24740 <_sk_load_tables_u16_be_sse2+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,130,254,255,255 // jb 24742 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 15,130,130,254,255,255 // jb 24740 <_sk_load_tables_u16_be_sse2+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,118,254,255,255 // jmpq 24742 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,118,254,255,255 // jmpq 24740 <_sk_load_tables_u16_be_sse2+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -45118,7 +45123,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,81,1,0,0 // jne 24a2f <_sk_load_tables_rgb_u16_be_sse2+0x163>
+ .byte 15,133,81,1,0,0 // jne 24a2d <_sk_load_tables_rgb_u16_be_sse2+0x163>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -45133,7 +45138,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,25,230,0,0 // movdqa 0xe619(%rip),%xmm8 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 102,68,15,111,5,171,229,0,0 // movdqa 0xe5ab(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca8>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -45188,7 +45193,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,150,226,0,0 // movaps 0xe296(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,40,226,0,0 // movaps 0xe228(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -45196,21 +45201,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 24a55 <_sk_load_tables_rgb_u16_be_sse2+0x189>
+ .byte 117,14 // jne 24a53 <_sk_load_tables_rgb_u16_be_sse2+0x189>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,175,254,255,255 // jmpq 24904 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,175,254,255,255 // jmpq 24902 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 24a86 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
+ .byte 114,24 // jb 24a84 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,126,254,255,255 // jmpq 24904 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,126,254,255,255 // jmpq 24902 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,117,254,255,255 // jmpq 24904 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,117,254,255,255 // jmpq 24902 <_sk_load_tables_rgb_u16_be_sse2+0x38>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -45220,7 +45225,7 @@ _sk_byte_tables_sse2:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,3,227,0,0 // movaps 0xe303(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,149,226,0,0 // movaps 0xe295(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
@@ -45248,7 +45253,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,190,227,0,0 // movaps 0xe3be(%rip),%xmm10 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,21,80,227,0,0 // movaps 0xe350(%rip),%xmm10 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -45367,7 +45372,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,254,225,0,0 // movaps 0xe1fe(%rip),%xmm10 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,21,144,225,0,0 // movaps 0xe190(%rip),%xmm10 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -45565,15 +45570,15 @@ _sk_parametric_r_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,202,223,0,0 // mulps 0xdfca(%rip),%xmm9 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,84,21,210,223,0,0 // andps 0xdfd2(%rip),%xmm10 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,86,21,250,220,0,0 // orps 0xdcfa(%rip),%xmm10 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,13,210,223,0,0 // addps 0xdfd2(%rip),%xmm9 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
- .byte 68,15,40,37,218,223,0,0 // movaps 0xdfda(%rip),%xmm12 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,13,92,223,0,0 // mulps 0xdf5c(%rip),%xmm9 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 68,15,84,21,100,223,0,0 // andps 0xdf64(%rip),%xmm10 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 68,15,86,21,140,220,0,0 // orps 0xdc8c(%rip),%xmm10 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
+ .byte 68,15,88,13,100,223,0,0 // addps 0xdf64(%rip),%xmm9 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,37,108,223,0,0 // movaps 0xdf6c(%rip),%xmm12 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,218,223,0,0 // addps 0xdfda(%rip),%xmm10 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
- .byte 68,15,40,37,226,223,0,0 // movaps 0xdfe2(%rip),%xmm12 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,88,21,108,223,0,0 // addps 0xdf6c(%rip),%xmm10 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,37,116,223,0,0 // movaps 0xdf74(%rip),%xmm12 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45581,22 +45586,22 @@ _sk_parametric_r_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,188,220,0,0 // movaps 0xdcbc(%rip),%xmm10 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,78,220,0,0 // movaps 0xdc4e(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,176,223,0,0 // addps 0xdfb0(%rip),%xmm9 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
- .byte 68,15,40,37,184,223,0,0 // movaps 0xdfb8(%rip),%xmm12 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,88,13,66,223,0,0 // addps 0xdf42(%rip),%xmm9 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 68,15,40,37,74,223,0,0 // movaps 0xdf4a(%rip),%xmm12 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,184,223,0,0 // movaps 0xdfb8(%rip),%xmm12 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,37,74,223,0,0 // movaps 0xdf4a(%rip),%xmm12 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,188,223,0,0 // movaps 0xdfbc(%rip),%xmm13 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,45,78,223,0,0 // movaps 0xdf4e(%rip),%xmm13 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,188,223,0,0 // mulps 0xdfbc(%rip),%xmm13 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 68,15,89,45,78,223,0,0 // mulps 0xdf4e(%rip),%xmm13 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45632,15 +45637,15 @@ _sk_parametric_g_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,140,222,0,0 // mulps 0xde8c(%rip),%xmm9 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,84,21,148,222,0,0 // andps 0xde94(%rip),%xmm10 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,86,21,188,219,0,0 // orps 0xdbbc(%rip),%xmm10 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,13,148,222,0,0 // addps 0xde94(%rip),%xmm9 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
- .byte 68,15,40,37,156,222,0,0 // movaps 0xde9c(%rip),%xmm12 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,13,30,222,0,0 // mulps 0xde1e(%rip),%xmm9 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 68,15,84,21,38,222,0,0 // andps 0xde26(%rip),%xmm10 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 68,15,86,21,78,219,0,0 // orps 0xdb4e(%rip),%xmm10 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
+ .byte 68,15,88,13,38,222,0,0 // addps 0xde26(%rip),%xmm9 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,37,46,222,0,0 // movaps 0xde2e(%rip),%xmm12 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,156,222,0,0 // addps 0xde9c(%rip),%xmm10 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
- .byte 68,15,40,37,164,222,0,0 // movaps 0xdea4(%rip),%xmm12 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,88,21,46,222,0,0 // addps 0xde2e(%rip),%xmm10 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,37,54,222,0,0 // movaps 0xde36(%rip),%xmm12 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45648,22 +45653,22 @@ _sk_parametric_g_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,126,219,0,0 // movaps 0xdb7e(%rip),%xmm10 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,16,219,0,0 // movaps 0xdb10(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,114,222,0,0 // addps 0xde72(%rip),%xmm9 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
- .byte 68,15,40,37,122,222,0,0 // movaps 0xde7a(%rip),%xmm12 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,88,13,4,222,0,0 // addps 0xde04(%rip),%xmm9 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 68,15,40,37,12,222,0,0 // movaps 0xde0c(%rip),%xmm12 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,122,222,0,0 // movaps 0xde7a(%rip),%xmm12 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,37,12,222,0,0 // movaps 0xde0c(%rip),%xmm12 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,126,222,0,0 // movaps 0xde7e(%rip),%xmm13 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,45,16,222,0,0 // movaps 0xde10(%rip),%xmm13 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,126,222,0,0 // mulps 0xde7e(%rip),%xmm13 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 68,15,89,45,16,222,0,0 // mulps 0xde10(%rip),%xmm13 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45699,15 +45704,15 @@ _sk_parametric_b_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,78,221,0,0 // mulps 0xdd4e(%rip),%xmm9 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,84,21,86,221,0,0 // andps 0xdd56(%rip),%xmm10 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,86,21,126,218,0,0 // orps 0xda7e(%rip),%xmm10 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,13,86,221,0,0 // addps 0xdd56(%rip),%xmm9 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
- .byte 68,15,40,37,94,221,0,0 // movaps 0xdd5e(%rip),%xmm12 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,13,224,220,0,0 // mulps 0xdce0(%rip),%xmm9 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 68,15,84,21,232,220,0,0 // andps 0xdce8(%rip),%xmm10 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 68,15,86,21,16,218,0,0 // orps 0xda10(%rip),%xmm10 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
+ .byte 68,15,88,13,232,220,0,0 // addps 0xdce8(%rip),%xmm9 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,37,240,220,0,0 // movaps 0xdcf0(%rip),%xmm12 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,94,221,0,0 // addps 0xdd5e(%rip),%xmm10 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
- .byte 68,15,40,37,102,221,0,0 // movaps 0xdd66(%rip),%xmm12 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,88,21,240,220,0,0 // addps 0xdcf0(%rip),%xmm10 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,37,248,220,0,0 // movaps 0xdcf8(%rip),%xmm12 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45715,22 +45720,22 @@ _sk_parametric_b_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,64,218,0,0 // movaps 0xda40(%rip),%xmm10 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,210,217,0,0 // movaps 0xd9d2(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,52,221,0,0 // addps 0xdd34(%rip),%xmm9 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
- .byte 68,15,40,37,60,221,0,0 // movaps 0xdd3c(%rip),%xmm12 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,88,13,198,220,0,0 // addps 0xdcc6(%rip),%xmm9 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 68,15,40,37,206,220,0,0 // movaps 0xdcce(%rip),%xmm12 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,60,221,0,0 // movaps 0xdd3c(%rip),%xmm12 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,37,206,220,0,0 // movaps 0xdcce(%rip),%xmm12 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,64,221,0,0 // movaps 0xdd40(%rip),%xmm13 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,45,210,220,0,0 // movaps 0xdcd2(%rip),%xmm13 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,64,221,0,0 // mulps 0xdd40(%rip),%xmm13 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 68,15,89,45,210,220,0,0 // mulps 0xdcd2(%rip),%xmm13 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45766,15 +45771,15 @@ _sk_parametric_a_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,16,220,0,0 // mulps 0xdc10(%rip),%xmm9 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,84,21,24,220,0,0 // andps 0xdc18(%rip),%xmm10 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,86,21,64,217,0,0 // orps 0xd940(%rip),%xmm10 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,13,24,220,0,0 // addps 0xdc18(%rip),%xmm9 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
- .byte 68,15,40,37,32,220,0,0 // movaps 0xdc20(%rip),%xmm12 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,89,13,162,219,0,0 // mulps 0xdba2(%rip),%xmm9 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 68,15,84,21,170,219,0,0 // andps 0xdbaa(%rip),%xmm10 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 68,15,86,21,210,216,0,0 // orps 0xd8d2(%rip),%xmm10 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
+ .byte 68,15,88,13,170,219,0,0 // addps 0xdbaa(%rip),%xmm9 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
+ .byte 68,15,40,37,178,219,0,0 // movaps 0xdbb2(%rip),%xmm12 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,32,220,0,0 // addps 0xdc20(%rip),%xmm10 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
- .byte 68,15,40,37,40,220,0,0 // movaps 0xdc28(%rip),%xmm12 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,88,21,178,219,0,0 // addps 0xdbb2(%rip),%xmm10 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
+ .byte 68,15,40,37,186,219,0,0 // movaps 0xdbba(%rip),%xmm12 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45782,22 +45787,22 @@ _sk_parametric_a_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,2,217,0,0 // movaps 0xd902(%rip),%xmm10 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,148,216,0,0 // movaps 0xd894(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,246,219,0,0 // addps 0xdbf6(%rip),%xmm9 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
- .byte 68,15,40,37,254,219,0,0 // movaps 0xdbfe(%rip),%xmm12 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,88,13,136,219,0,0 // addps 0xdb88(%rip),%xmm9 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
+ .byte 68,15,40,37,144,219,0,0 // movaps 0xdb90(%rip),%xmm12 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,254,219,0,0 // movaps 0xdbfe(%rip),%xmm12 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,37,144,219,0,0 // movaps 0xdb90(%rip),%xmm12 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,2,220,0,0 // movaps 0xdc02(%rip),%xmm13 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,45,148,219,0,0 // movaps 0xdb94(%rip),%xmm13 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,2,220,0,0 // mulps 0xdc02(%rip),%xmm13 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 68,15,89,45,148,219,0,0 // mulps 0xdb94(%rip),%xmm13 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45822,19 +45827,19 @@ _sk_gamma_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,13,219,0,0 // mulps 0xdb0d(%rip),%xmm0 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 15,84,21,22,219,0,0 // andps 0xdb16(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,40,53,62,216,0,0 // movaps 0xd83e(%rip),%xmm14 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,89,5,159,218,0,0 // mulps 0xda9f(%rip),%xmm0 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 15,84,21,168,218,0,0 // andps 0xdaa8(%rip),%xmm2 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 68,15,40,53,208,215,0,0 // movaps 0xd7d0(%rip),%xmm14 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 65,15,86,214 // orps %xmm14,%xmm2
- .byte 68,15,40,37,18,219,0,0 // movaps 0xdb12(%rip),%xmm12 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,37,164,218,0,0 // movaps 0xdaa4(%rip),%xmm12 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf8>
.byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 68,15,40,29,22,219,0,0 // movaps 0xdb16(%rip),%xmm11 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,29,168,218,0,0 // movaps 0xdaa8(%rip),%xmm11 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd08>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,21,20,219,0,0 // movaps 0xdb14(%rip),%xmm10 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,40,21,166,218,0,0 // movaps 0xdaa6(%rip),%xmm10 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xd18>
.byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 68,15,40,45,24,219,0,0 // movaps 0xdb18(%rip),%xmm13 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,45,170,218,0,0 // movaps 0xdaaa(%rip),%xmm13 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xd28>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -45846,27 +45851,27 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,226,1 // cmpltps %xmm2,%xmm4
- .byte 68,15,40,13,232,215,0,0 // movaps 0xd7e8(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,122,215,0,0 // movaps 0xd77a(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 65,15,84,225 // andps %xmm9,%xmm4
.byte 15,92,212 // subps %xmm4,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,228,218,0,0 // movaps 0xdae4(%rip),%xmm6 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 15,40,53,118,218,0,0 // movaps 0xda76(%rip),%xmm6 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd38>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,250,218,0,0 // movaps 0xdafa(%rip),%xmm7 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 15,40,61,140,218,0,0 // movaps 0xda8c(%rip),%xmm7 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd58>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,218,218,0,0 // movaps 0xdada(%rip),%xmm4 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 15,40,37,108,218,0,0 // movaps 0xda6c(%rip),%xmm4 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd48>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,236,218,0,0 // movaps 0xdaec(%rip),%xmm15 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,40,61,126,218,0,0 // movaps 0xda7e(%rip),%xmm15 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xd68>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,72,218,0,0 // mulps 0xda48(%rip),%xmm0 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 15,84,13,81,218,0,0 // andps 0xda51(%rip),%xmm1 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,89,5,218,217,0,0 // mulps 0xd9da(%rip),%xmm0 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 15,84,13,227,217,0,0 // andps 0xd9e3(%rip),%xmm1 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
.byte 65,15,86,206 // orps %xmm14,%xmm1
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
@@ -45896,9 +45901,9 @@ _sk_gamma_sse2:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,215,217,0,0 // mulps 0xd9d7(%rip),%xmm0 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 15,84,29,224,217,0,0 // andps 0xd9e0(%rip),%xmm3 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 15,86,29,9,215,0,0 // orps 0xd709(%rip),%xmm3 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,89,5,105,217,0,0 // mulps 0xd969(%rip),%xmm0 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd8>
+ .byte 15,84,29,114,217,0,0 // andps 0xd972(%rip),%xmm3 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce8>
+ .byte 15,86,29,155,214,0,0 // orps 0xd69b(%rip),%xmm3 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
@@ -45920,7 +45925,7 @@ _sk_gamma_sse2:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,22,218,0,0 // movaps 0xda16(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 15,40,5,168,217,0,0 // movaps 0xd9a8(%rip),%xmm0 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xd78>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -45939,29 +45944,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,235,217,0,0 // mulps 0xd9eb(%rip),%xmm0 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
- .byte 68,15,40,5,99,215,0,0 // movaps 0xd763(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 15,89,5,125,217,0,0 // mulps 0xd97d(%rip),%xmm0 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd88>
+ .byte 68,15,40,5,245,214,0,0 // movaps 0xd6f5(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,231,217,0,0 // movaps 0xd9e7(%rip),%xmm9 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 68,15,40,13,121,217,0,0 // movaps 0xd979(%rip),%xmm9 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd98>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,228,217,0,0 // addps 0xd9e4(%rip),%xmm0 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
- .byte 15,89,5,237,217,0,0 // mulps 0xd9ed(%rip),%xmm0 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
- .byte 15,89,13,246,217,0,0 // mulps 0xd9f6(%rip),%xmm1 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
+ .byte 15,88,5,118,217,0,0 // addps 0xd976(%rip),%xmm0 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xda8>
+ .byte 15,89,5,127,217,0,0 // mulps 0xd97f(%rip),%xmm0 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb8>
+ .byte 15,89,13,136,217,0,0 // mulps 0xd988(%rip),%xmm1 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xdc8>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,252,217,0,0 // mulps 0xd9fc(%rip),%xmm2 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,89,21,142,217,0,0 // mulps 0xd98e(%rip),%xmm2 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xdd8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,241,217,0,0 // movaps 0xd9f1(%rip),%xmm2 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
+ .byte 15,40,21,131,217,0,0 // movaps 0xd983(%rip),%xmm2 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xde8>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,240,217,0,0 // movaps 0xd9f0(%rip),%xmm10 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 68,15,40,21,130,217,0,0 // movaps 0xd982(%rip),%xmm10 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xdf8>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,244,217,0,0 // movaps 0xd9f4(%rip),%xmm11 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 68,15,40,29,134,217,0,0 // movaps 0xd986(%rip),%xmm11 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xe08>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -45985,8 +45990,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,164,217,0,0 // mulps 0xd9a4(%rip),%xmm8 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
- .byte 15,89,21,173,217,0,0 // mulps 0xd9ad(%rip),%xmm2 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 68,15,89,5,54,217,0,0 // mulps 0xd936(%rip),%xmm8 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xe18>
+ .byte 15,89,21,63,217,0,0 // mulps 0xd93f(%rip),%xmm2 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xe28>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -46002,13 +46007,13 @@ _sk_load_a8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 25761 <_sk_load_a8_sse2+0x46>
+ .byte 117,46 // jne 2575f <_sk_load_a8_sse2+0x46>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,39,214,0,0 // pand 0xd627(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,5,185,213,0,0 // pand 0xd5b9(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,125,215,0,0 // mulps 0xd77d(%rip),%xmm3 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,29,15,215,0,0 // mulps 0xd70f(%rip),%xmm3 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -46017,12 +46022,12 @@ _sk_load_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 257a4 <_sk_load_a8_sse2+0x89>
+ .byte 116,54 // je 257a2 <_sk_load_a8_sse2+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 2578d <_sk_load_a8_sse2+0x72>
+ .byte 116,21 // je 2578b <_sk_load_a8_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 25741 <_sk_load_a8_sse2+0x26>
+ .byte 117,195 // jne 2573f <_sk_load_a8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -46031,10 +46036,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,157 // jmp 25741 <_sk_load_a8_sse2+0x26>
+ .byte 235,157 // jmp 2573f <_sk_load_a8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,146 // jmp 25741 <_sk_load_a8_sse2+0x26>
+ .byte 235,146 // jmp 2573f <_sk_load_a8_sse2+0x26>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -46047,13 +46052,13 @@ _sk_load_a8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 257f5 <_sk_load_a8_dst_sse2+0x46>
+ .byte 117,46 // jne 257f3 <_sk_load_a8_dst_sse2+0x46>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,147,213,0,0 // pand 0xd593(%rip),%xmm4 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,37,37,213,0,0 // pand 0xd525(%rip),%xmm4 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,233,214,0,0 // mulps 0xd6e9(%rip),%xmm7 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,61,123,214,0,0 // mulps 0xd67b(%rip),%xmm7 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -46062,12 +46067,12 @@ _sk_load_a8_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 25838 <_sk_load_a8_dst_sse2+0x89>
+ .byte 116,54 // je 25836 <_sk_load_a8_dst_sse2+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25821 <_sk_load_a8_dst_sse2+0x72>
+ .byte 116,21 // je 2581f <_sk_load_a8_dst_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 257d5 <_sk_load_a8_dst_sse2+0x26>
+ .byte 117,195 // jne 257d3 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -46076,10 +46081,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,157 // jmp 257d5 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,157 // jmp 257d3 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,146 // jmp 257d5 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,146 // jmp 257d3 <_sk_load_a8_dst_sse2+0x26>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -46132,7 +46137,7 @@ _sk_gather_a8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,195,213,0,0 // mulps 0xd5c3(%rip),%xmm3 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,29,85,213,0,0 // mulps 0xd555(%rip),%xmm3 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -46149,7 +46154,7 @@ _sk_store_a8_sse2:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,106,212,0,0 // movaps 0xd46a(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,252,211,0,0 // movaps 0xd3fc(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -46157,7 +46162,7 @@ _sk_store_a8_sse2:
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 25967 <_sk_store_a8_sse2+0x4c>
+ .byte 117,13 // jne 25965 <_sk_store_a8_sse2+0x4c>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46167,22 +46172,22 @@ _sk_store_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 259b4 <_sk_store_a8_sse2+0x99>
+ .byte 116,54 // je 259b2 <_sk_store_a8_sse2+0x99>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,17 // je 25995 <_sk_store_a8_sse2+0x7a>
+ .byte 116,17 // je 25993 <_sk_store_a8_sse2+0x7a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,217 // jne 25963 <_sk_store_a8_sse2+0x48>
+ .byte 117,217 // jne 25961 <_sk_store_a8_sse2+0x48>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1)
- .byte 102,68,15,219,5,210,211,0,0 // pand 0xd3d2(%rip),%xmm8 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,219,5,100,211,0,0 // pand 0xd364(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,16 // mov %ax,(%r8,%r10,1)
- .byte 235,175 // jmp 25963 <_sk_store_a8_sse2+0x48>
+ .byte 235,175 // jmp 25961 <_sk_store_a8_sse2+0x48>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,136,4,16 // mov %al,(%r8,%r10,1)
- .byte 235,164 // jmp 25963 <_sk_store_a8_sse2+0x48>
+ .byte 235,164 // jmp 25961 <_sk_store_a8_sse2+0x48>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -46195,27 +46200,27 @@ _sk_load_g8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 25a08 <_sk_load_g8_sse2+0x49>
+ .byte 117,49 // jne 25a06 <_sk_load_g8_sse2+0x49>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,131,211,0,0 // pand 0xd383(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,5,21,211,0,0 // pand 0xd315(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,217,212,0,0 // mulps 0xd4d9(%rip),%xmm0 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,5,107,212,0,0 // mulps 0xd46b(%rip),%xmm0 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,192,210,0,0 // movaps 0xd2c0(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,82,210,0,0 // movaps 0xd252(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 25a4b <_sk_load_g8_sse2+0x8c>
+ .byte 116,54 // je 25a49 <_sk_load_g8_sse2+0x8c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25a34 <_sk_load_g8_sse2+0x75>
+ .byte 116,21 // je 25a32 <_sk_load_g8_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 259e5 <_sk_load_g8_sse2+0x26>
+ .byte 117,192 // jne 259e3 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -46224,10 +46229,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,154 // jmp 259e5 <_sk_load_g8_sse2+0x26>
+ .byte 235,154 // jmp 259e3 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,143 // jmp 259e5 <_sk_load_g8_sse2+0x26>
+ .byte 235,143 // jmp 259e3 <_sk_load_g8_sse2+0x26>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -46240,27 +46245,27 @@ _sk_load_g8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 25a9f <_sk_load_g8_dst_sse2+0x49>
+ .byte 117,49 // jne 25a9d <_sk_load_g8_dst_sse2+0x49>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,236,210,0,0 // pand 0xd2ec(%rip),%xmm4 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,37,126,210,0,0 // pand 0xd27e(%rip),%xmm4 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,66,212,0,0 // mulps 0xd442(%rip),%xmm4 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,37,212,211,0,0 // mulps 0xd3d4(%rip),%xmm4 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,41,210,0,0 // movaps 0xd229(%rip),%xmm7 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,61,187,209,0,0 // movaps 0xd1bb(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 25ae2 <_sk_load_g8_dst_sse2+0x8c>
+ .byte 116,54 // je 25ae0 <_sk_load_g8_dst_sse2+0x8c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25acb <_sk_load_g8_dst_sse2+0x75>
+ .byte 116,21 // je 25ac9 <_sk_load_g8_dst_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 25a7c <_sk_load_g8_dst_sse2+0x26>
+ .byte 117,192 // jne 25a7a <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -46269,10 +46274,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,154 // jmp 25a7c <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,154 // jmp 25a7a <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,143 // jmp 25a7c <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,143 // jmp 25a7a <_sk_load_g8_dst_sse2+0x26>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -46325,9 +46330,9 @@ _sk_gather_g8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,25,211,0,0 // mulps 0xd319(%rip),%xmm0 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 15,89,5,171,210,0,0 // mulps 0xd2ab(%rip),%xmm0 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,0,209,0,0 // movaps 0xd100(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,146,208,0,0 // movaps 0xd092(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -46344,42 +46349,42 @@ _sk_load_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 25c36 <_sk_load_565_sse2+0x6e>
+ .byte 117,83 // jne 25c34 <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,235,210,0,0 // movdqa 0xd2eb(%rip),%xmm0 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,5,125,210,0,0 // movdqa 0xd27d(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,237,210,0,0 // mulps 0xd2ed(%rip),%xmm0 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
- .byte 102,15,111,13,245,210,0,0 // movdqa 0xd2f5(%rip),%xmm1 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,89,5,127,210,0,0 // mulps 0xd27f(%rip),%xmm0 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 102,15,111,13,135,210,0,0 // movdqa 0xd287(%rip),%xmm1 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,247,210,0,0 // mulps 0xd2f7(%rip),%xmm1 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 102,15,219,21,255,210,0,0 // pand 0xd2ff(%rip),%xmm2 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,13,137,210,0,0 // mulps 0xd289(%rip),%xmm1 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ .byte 102,15,219,21,145,210,0,0 // pand 0xd291(%rip),%xmm2 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,5,211,0,0 // mulps 0xd305(%rip),%xmm2 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 15,89,21,151,210,0,0 // mulps 0xd297(%rip),%xmm2 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,140,208,0,0 // movaps 0xd08c(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,30,208,0,0 // movaps 0xd01e(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25c76 <_sk_load_565_sse2+0xae>
+ .byte 116,51 // je 25c74 <_sk_load_565_sse2+0xae>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25c62 <_sk_load_565_sse2+0x9a>
+ .byte 116,21 // je 25c60 <_sk_load_565_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 25bed <_sk_load_565_sse2+0x25>
+ .byte 117,154 // jne 25beb <_sk_load_565_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,119,255,255,255 // jmpq 25bed <_sk_load_565_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 25beb <_sk_load_565_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,105,255,255,255 // jmpq 25bed <_sk_load_565_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 25beb <_sk_load_565_sse2+0x25>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -46393,42 +46398,42 @@ _sk_load_565_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 25cf2 <_sk_load_565_dst_sse2+0x6e>
+ .byte 117,83 // jne 25cf0 <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,47,210,0,0 // movdqa 0xd22f(%rip),%xmm4 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,37,193,209,0,0 // movdqa 0xd1c1(%rip),%xmm4 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,49,210,0,0 // mulps 0xd231(%rip),%xmm4 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
- .byte 102,15,111,45,57,210,0,0 // movdqa 0xd239(%rip),%xmm5 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,89,37,195,209,0,0 // mulps 0xd1c3(%rip),%xmm4 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 102,15,111,45,203,209,0,0 // movdqa 0xd1cb(%rip),%xmm5 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,59,210,0,0 // mulps 0xd23b(%rip),%xmm5 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 102,15,219,53,67,210,0,0 // pand 0xd243(%rip),%xmm6 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,45,205,209,0,0 // mulps 0xd1cd(%rip),%xmm5 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ .byte 102,15,219,53,213,209,0,0 // pand 0xd1d5(%rip),%xmm6 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,73,210,0,0 // mulps 0xd249(%rip),%xmm6 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 15,89,53,219,209,0,0 // mulps 0xd1db(%rip),%xmm6 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,208,207,0,0 // movaps 0xcfd0(%rip),%xmm7 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,61,98,207,0,0 // movaps 0xcf62(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25d32 <_sk_load_565_dst_sse2+0xae>
+ .byte 116,51 // je 25d30 <_sk_load_565_dst_sse2+0xae>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25d1e <_sk_load_565_dst_sse2+0x9a>
+ .byte 116,21 // je 25d1c <_sk_load_565_dst_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 25ca9 <_sk_load_565_dst_sse2+0x25>
+ .byte 117,154 // jne 25ca7 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,119,255,255,255 // jmpq 25ca9 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 25ca7 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,105,255,255,255 // jmpq 25ca9 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 25ca7 <_sk_load_565_dst_sse2+0x25>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -46477,19 +46482,19 @@ _sk_gather_565_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,111,5,222,208,0,0 // movdqa 0xd0de(%rip),%xmm0 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,5,112,208,0,0 // movdqa 0xd070(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc48>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,224,208,0,0 // mulps 0xd0e0(%rip),%xmm0 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
- .byte 102,15,111,13,232,208,0,0 // movdqa 0xd0e8(%rip),%xmm1 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 15,89,5,114,208,0,0 // mulps 0xd072(%rip),%xmm0 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xc58>
+ .byte 102,15,111,13,122,208,0,0 // movdqa 0xd07a(%rip),%xmm1 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xc68>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,234,208,0,0 // mulps 0xd0ea(%rip),%xmm1 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
- .byte 102,15,219,21,242,208,0,0 // pand 0xd0f2(%rip),%xmm2 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,13,124,208,0,0 // mulps 0xd07c(%rip),%xmm1 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xc78>
+ .byte 102,15,219,21,132,208,0,0 // pand 0xd084(%rip),%xmm2 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc88>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,248,208,0,0 // mulps 0xd0f8(%rip),%xmm2 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 15,89,21,138,208,0,0 // mulps 0xd08a(%rip),%xmm2 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc98>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,127,206,0,0 // movaps 0xce7f(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,17,206,0,0 // movaps 0xce11(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -46503,12 +46508,12 @@ _sk_store_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,127,210,0,0 // movaps 0xd27f(%rip),%xmm8 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,5,17,210,0,0 // movaps 0xd211(%rip),%xmm8 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xe48>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,116,210,0,0 // movaps 0xd274(%rip),%xmm10 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 68,15,40,21,6,210,0,0 // movaps 0xd206(%rip),%xmm10 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xe58>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -46520,7 +46525,7 @@ _sk_store_565_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 25ebe <_sk_store_565_sse2+0x7b>
+ .byte 117,10 // jne 25ebc <_sk_store_565_sse2+0x7b>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -46528,19 +46533,19 @@ _sk_store_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 25ef6 <_sk_store_565_sse2+0xb3>
+ .byte 116,38 // je 25ef4 <_sk_store_565_sse2+0xb3>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 25ee8 <_sk_store_565_sse2+0xa5>
+ .byte 116,18 // je 25ee6 <_sk_store_565_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 25eba <_sk_store_565_sse2+0x77>
+ .byte 117,222 // jne 25eb8 <_sk_store_565_sse2+0x77>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 25eba <_sk_store_565_sse2+0x77>
+ .byte 235,196 // jmp 25eb8 <_sk_store_565_sse2+0x77>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 25eba <_sk_store_565_sse2+0x77>
+ .byte 235,184 // jmp 25eb8 <_sk_store_565_sse2+0x77>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -46554,45 +46559,45 @@ _sk_load_4444_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 25f7f <_sk_load_4444_sse2+0x7d>
+ .byte 117,98 // jne 25f7d <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,209,209,0,0 // movdqa 0xd1d1(%rip),%xmm0 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,5,99,209,0,0 // movdqa 0xd163(%rip),%xmm0 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,211,209,0,0 // mulps 0xd1d3(%rip),%xmm0 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
- .byte 102,15,111,13,219,209,0,0 // movdqa 0xd1db(%rip),%xmm1 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 15,89,5,101,209,0,0 // mulps 0xd165(%rip),%xmm0 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ .byte 102,15,111,13,109,209,0,0 // movdqa 0xd16d(%rip),%xmm1 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,221,209,0,0 // mulps 0xd1dd(%rip),%xmm1 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
- .byte 102,15,111,21,229,209,0,0 // movdqa 0xd1e5(%rip),%xmm2 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 15,89,13,111,209,0,0 // mulps 0xd16f(%rip),%xmm1 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ .byte 102,15,111,21,119,209,0,0 // movdqa 0xd177(%rip),%xmm2 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,231,209,0,0 // mulps 0xd1e7(%rip),%xmm2 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
- .byte 102,15,219,29,239,209,0,0 // pand 0xd1ef(%rip),%xmm3 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,21,121,209,0,0 // mulps 0xd179(%rip),%xmm2 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ .byte 102,15,219,29,129,209,0,0 // pand 0xd181(%rip),%xmm3 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,245,209,0,0 // mulps 0xd1f5(%rip),%xmm3 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 15,89,29,135,209,0,0 // mulps 0xd187(%rip),%xmm3 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25fbf <_sk_load_4444_sse2+0xbd>
+ .byte 116,51 // je 25fbd <_sk_load_4444_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25fab <_sk_load_4444_sse2+0xa9>
+ .byte 116,21 // je 25fa9 <_sk_load_4444_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 25f27 <_sk_load_4444_sse2+0x25>
+ .byte 117,139 // jne 25f25 <_sk_load_4444_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,104,255,255,255 // jmpq 25f27 <_sk_load_4444_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 25f25 <_sk_load_4444_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,90,255,255,255 // jmpq 25f27 <_sk_load_4444_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 25f25 <_sk_load_4444_sse2+0x25>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -46606,45 +46611,45 @@ _sk_load_4444_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 2604a <_sk_load_4444_dst_sse2+0x7d>
+ .byte 117,98 // jne 26048 <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,6,209,0,0 // movdqa 0xd106(%rip),%xmm4 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,37,152,208,0,0 // movdqa 0xd098(%rip),%xmm4 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,8,209,0,0 // mulps 0xd108(%rip),%xmm4 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
- .byte 102,15,111,45,16,209,0,0 // movdqa 0xd110(%rip),%xmm5 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 15,89,37,154,208,0,0 // mulps 0xd09a(%rip),%xmm4 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ .byte 102,15,111,45,162,208,0,0 // movdqa 0xd0a2(%rip),%xmm5 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,18,209,0,0 // mulps 0xd112(%rip),%xmm5 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
- .byte 102,15,111,53,26,209,0,0 // movdqa 0xd11a(%rip),%xmm6 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 15,89,45,164,208,0,0 // mulps 0xd0a4(%rip),%xmm5 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ .byte 102,15,111,53,172,208,0,0 // movdqa 0xd0ac(%rip),%xmm6 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,28,209,0,0 // mulps 0xd11c(%rip),%xmm6 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
- .byte 102,15,219,61,36,209,0,0 // pand 0xd124(%rip),%xmm7 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,53,174,208,0,0 // mulps 0xd0ae(%rip),%xmm6 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ .byte 102,15,219,61,182,208,0,0 // pand 0xd0b6(%rip),%xmm7 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,42,209,0,0 // mulps 0xd12a(%rip),%xmm7 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 15,89,61,188,208,0,0 // mulps 0xd0bc(%rip),%xmm7 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 2608a <_sk_load_4444_dst_sse2+0xbd>
+ .byte 116,51 // je 26088 <_sk_load_4444_dst_sse2+0xbd>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 26076 <_sk_load_4444_dst_sse2+0xa9>
+ .byte 116,21 // je 26074 <_sk_load_4444_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 25ff2 <_sk_load_4444_dst_sse2+0x25>
+ .byte 117,139 // jne 25ff0 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,104,255,255,255 // jmpq 25ff2 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 25ff0 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,90,255,255,255 // jmpq 25ff2 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 25ff0 <_sk_load_4444_dst_sse2+0x25>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -46693,21 +46698,21 @@ _sk_gather_4444_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,111,5,166,207,0,0 // movdqa 0xcfa6(%rip),%xmm0 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,5,56,207,0,0 // movdqa 0xcf38(%rip),%xmm0 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xe68>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,168,207,0,0 // mulps 0xcfa8(%rip),%xmm0 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
- .byte 102,15,111,13,176,207,0,0 // movdqa 0xcfb0(%rip),%xmm1 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 15,89,5,58,207,0,0 // mulps 0xcf3a(%rip),%xmm0 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe78>
+ .byte 102,15,111,13,66,207,0,0 // movdqa 0xcf42(%rip),%xmm1 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe88>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,178,207,0,0 // mulps 0xcfb2(%rip),%xmm1 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
- .byte 102,15,111,21,186,207,0,0 // movdqa 0xcfba(%rip),%xmm2 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 15,89,13,68,207,0,0 // mulps 0xcf44(%rip),%xmm1 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe98>
+ .byte 102,15,111,21,76,207,0,0 // movdqa 0xcf4c(%rip),%xmm2 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xea8>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,188,207,0,0 // mulps 0xcfbc(%rip),%xmm2 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
- .byte 102,15,219,29,196,207,0,0 // pand 0xcfc4(%rip),%xmm3 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,21,78,207,0,0 // mulps 0xcf4e(%rip),%xmm2 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb8>
+ .byte 102,15,219,29,86,207,0,0 // pand 0xcf56(%rip),%xmm3 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xec8>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,202,207,0,0 // mulps 0xcfca(%rip),%xmm3 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 15,89,29,92,207,0,0 // mulps 0xcf5c(%rip),%xmm3 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xed8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -46722,7 +46727,7 @@ _sk_store_4444_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,184,207,0,0 // movaps 0xcfb8(%rip),%xmm8 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 68,15,40,5,74,207,0,0 // movaps 0xcf4a(%rip),%xmm8 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xee8>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -46744,7 +46749,7 @@ _sk_store_4444_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 26239 <_sk_store_4444_sse2+0x8f>
+ .byte 117,10 // jne 26237 <_sk_store_4444_sse2+0x8f>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -46752,19 +46757,19 @@ _sk_store_4444_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 26271 <_sk_store_4444_sse2+0xc7>
+ .byte 116,38 // je 2626f <_sk_store_4444_sse2+0xc7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 26263 <_sk_store_4444_sse2+0xb9>
+ .byte 116,18 // je 26261 <_sk_store_4444_sse2+0xb9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 26235 <_sk_store_4444_sse2+0x8b>
+ .byte 117,222 // jne 26233 <_sk_store_4444_sse2+0x8b>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 26235 <_sk_store_4444_sse2+0x8b>
+ .byte 235,196 // jmp 26233 <_sk_store_4444_sse2+0x8b>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 26235 <_sk_store_4444_sse2+0x8b>
+ .byte 235,184 // jmp 26233 <_sk_store_4444_sse2+0x8b>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -46778,13 +46783,13 @@ _sk_load_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 262fb <_sk_load_8888_sse2+0x7e>
+ .byte 117,98 // jne 262f9 <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,21,201,202,0,0 // movdqa 0xcac9(%rip),%xmm2 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,21,91,202,0,0 // movdqa 0xca5b(%rip),%xmm2 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,21,204,0,0 // movaps 0xcc15(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,167,203,0,0 // movaps 0xcba7(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -46804,18 +46809,18 @@ _sk_load_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 26331 <_sk_load_8888_sse2+0xb4>
+ .byte 116,41 // je 2632f <_sk_load_8888_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26326 <_sk_load_8888_sse2+0xa9>
+ .byte 116,19 // je 26324 <_sk_load_8888_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 2629f <_sk_load_8888_sse2+0x22>
+ .byte 117,134 // jne 2629d <_sk_load_8888_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 2629f <_sk_load_8888_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 2629d <_sk_load_8888_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 2629f <_sk_load_8888_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 2629d <_sk_load_8888_sse2+0x22>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -46829,13 +46834,13 @@ _sk_load_8888_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 263ba <_sk_load_8888_dst_sse2+0x7e>
+ .byte 117,98 // jne 263b8 <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,53,10,202,0,0 // movdqa 0xca0a(%rip),%xmm6 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,53,156,201,0,0 // movdqa 0xc99c(%rip),%xmm6 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,86,203,0,0 // movaps 0xcb56(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,232,202,0,0 // movaps 0xcae8(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -46855,18 +46860,18 @@ _sk_load_8888_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 263f0 <_sk_load_8888_dst_sse2+0xb4>
+ .byte 116,41 // je 263ee <_sk_load_8888_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 263e5 <_sk_load_8888_dst_sse2+0xa9>
+ .byte 116,19 // je 263e3 <_sk_load_8888_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 2635e <_sk_load_8888_dst_sse2+0x22>
+ .byte 117,134 // jne 2635c <_sk_load_8888_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 2635e <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 2635c <_sk_load_8888_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 2635e <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 2635c <_sk_load_8888_dst_sse2+0x22>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -46912,11 +46917,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,189,200,0,0 // movdqa 0xc8bd(%rip),%xmm2 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,21,79,200,0,0 // movdqa 0xc84f(%rip),%xmm2 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,9,202,0,0 // movaps 0xca09(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,155,201,0,0 // movaps 0xc99b(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -46945,7 +46950,7 @@ _sk_store_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,122,200,0,0 // movaps 0xc87a(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,12,200,0,0 // movaps 0xc80c(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -46964,24 +46969,24 @@ _sk_store_8888_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 26586 <_sk_store_8888_sse2+0x7f>
+ .byte 117,10 // jne 26584 <_sk_store_8888_sse2+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 265b4 <_sk_store_8888_sse2+0xad>
+ .byte 116,33 // je 265b2 <_sk_store_8888_sse2+0xad>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 265ac <_sk_store_8888_sse2+0xa5>
+ .byte 116,19 // je 265aa <_sk_store_8888_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 26582 <_sk_store_8888_sse2+0x7b>
+ .byte 117,227 // jne 26580 <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 26582 <_sk_store_8888_sse2+0x7b>
+ .byte 235,206 // jmp 26580 <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 26582 <_sk_store_8888_sse2+0x7b>
+ .byte 235,198 // jmp 26580 <_sk_store_8888_sse2+0x7b>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -46995,13 +47000,13 @@ _sk_load_bgra_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 2663a <_sk_load_bgra_sse2+0x7e>
+ .byte 117,98 // jne 26638 <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,5,138,199,0,0 // movdqa 0xc78a(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,28,199,0,0 // movdqa 0xc71c(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,214,200,0,0 // movaps 0xc8d6(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,104,200,0,0 // movaps 0xc868(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -47021,18 +47026,18 @@ _sk_load_bgra_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 26670 <_sk_load_bgra_sse2+0xb4>
+ .byte 116,41 // je 2666e <_sk_load_bgra_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26665 <_sk_load_bgra_sse2+0xa9>
+ .byte 116,19 // je 26663 <_sk_load_bgra_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 265de <_sk_load_bgra_sse2+0x22>
+ .byte 117,134 // jne 265dc <_sk_load_bgra_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 265de <_sk_load_bgra_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 265dc <_sk_load_bgra_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 265de <_sk_load_bgra_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 265dc <_sk_load_bgra_sse2+0x22>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -47046,13 +47051,13 @@ _sk_load_bgra_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 266f9 <_sk_load_bgra_dst_sse2+0x7e>
+ .byte 117,98 // jne 266f7 <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,37,203,198,0,0 // movdqa 0xc6cb(%rip),%xmm4 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,37,93,198,0,0 // movdqa 0xc65d(%rip),%xmm4 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,23,200,0,0 // movaps 0xc817(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,169,199,0,0 // movaps 0xc7a9(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -47072,18 +47077,18 @@ _sk_load_bgra_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 2672f <_sk_load_bgra_dst_sse2+0xb4>
+ .byte 116,41 // je 2672d <_sk_load_bgra_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26724 <_sk_load_bgra_dst_sse2+0xa9>
+ .byte 116,19 // je 26722 <_sk_load_bgra_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 2669d <_sk_load_bgra_dst_sse2+0x22>
+ .byte 117,134 // jne 2669b <_sk_load_bgra_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 2669d <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 2669b <_sk_load_bgra_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 2669d <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 2669b <_sk_load_bgra_dst_sse2+0x22>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -47129,11 +47134,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,126,197,0,0 // movdqa 0xc57e(%rip),%xmm0 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,16,197,0,0 // movdqa 0xc510(%rip),%xmm0 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xad8>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,202,198,0,0 // movaps 0xc6ca(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 68,15,40,5,92,198,0,0 // movaps 0xc65c(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xc38>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -47162,7 +47167,7 @@ _sk_store_bgra_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,59,197,0,0 // movaps 0xc53b(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,205,196,0,0 // movaps 0xc4cd(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xb08>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -47181,24 +47186,24 @@ _sk_store_bgra_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 268c5 <_sk_store_bgra_sse2+0x7f>
+ .byte 117,10 // jne 268c3 <_sk_store_bgra_sse2+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 268f3 <_sk_store_bgra_sse2+0xad>
+ .byte 116,33 // je 268f1 <_sk_store_bgra_sse2+0xad>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 268eb <_sk_store_bgra_sse2+0xa5>
+ .byte 116,19 // je 268e9 <_sk_store_bgra_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 268c1 <_sk_store_bgra_sse2+0x7b>
+ .byte 117,227 // jne 268bf <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 268c1 <_sk_store_bgra_sse2+0x7b>
+ .byte 235,206 // jmp 268bf <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 268c1 <_sk_store_bgra_sse2+0x7b>
+ .byte 235,198 // jmp 268bf <_sk_store_bgra_sse2+0x7b>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -47212,7 +47217,7 @@ _sk_load_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 26a4a <_sk_load_f16_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 26a48 <_sk_load_f16_sse2+0x14f>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,192 // movapd %xmm0,%xmm8
@@ -47224,18 +47229,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,53,200,0,0 // movdqa 0xc835(%rip),%xmm9 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,13,199,199,0,0 // movdqa 0xc7c7(%rip),%xmm9 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,50,200,0,0 // movdqa 0xc832(%rip),%xmm11 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,68,15,111,29,196,199,0,0 // movdqa 0xc7c4(%rip),%xmm11 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,53,200,0,0 // movdqa 0xc835(%rip),%xmm3 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,111,29,199,199,0,0 // movdqa 0xc7c7(%rip),%xmm3 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,36,200,0,0 // movdqa 0xc824(%rip),%xmm12 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 102,68,15,111,37,182,199,0,0 // movdqa 0xc7b6(%rip),%xmm12 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -47274,16 +47279,16 @@ _sk_load_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 26a63 <_sk_load_f16_sse2+0x168>
+ .byte 117,13 // jne 26a61 <_sk_load_f16_sse2+0x168>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,197,254,255,255 // jmpq 26928 <_sk_load_f16_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 26926 <_sk_load_f16_sse2+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 26928 <_sk_load_f16_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 26926 <_sk_load_f16_sse2+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,164,254,255,255 // jmpq 26928 <_sk_load_f16_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 26926 <_sk_load_f16_sse2+0x2d>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -47297,7 +47302,7 @@ _sk_load_f16_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 26bd3 <_sk_load_f16_dst_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 26bd1 <_sk_load_f16_dst_sse2+0x14f>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,196 // movapd %xmm4,%xmm8
@@ -47309,18 +47314,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,172,198,0,0 // movdqa 0xc6ac(%rip),%xmm9 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,13,62,198,0,0 // movdqa 0xc63e(%rip),%xmm9 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,169,198,0,0 // movdqa 0xc6a9(%rip),%xmm11 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,68,15,111,29,59,198,0,0 // movdqa 0xc63b(%rip),%xmm11 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,172,198,0,0 // movdqa 0xc6ac(%rip),%xmm7 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,111,61,62,198,0,0 // movdqa 0xc63e(%rip),%xmm7 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,155,198,0,0 // movdqa 0xc69b(%rip),%xmm12 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 102,68,15,111,37,45,198,0,0 // movdqa 0xc62d(%rip),%xmm12 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -47359,16 +47364,16 @@ _sk_load_f16_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 26bec <_sk_load_f16_dst_sse2+0x168>
+ .byte 117,13 // jne 26bea <_sk_load_f16_dst_sse2+0x168>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,197,254,255,255 // jmpq 26ab1 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 26aaf <_sk_load_f16_dst_sse2+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 26ab1 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 26aaf <_sk_load_f16_dst_sse2+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,164,254,255,255 // jmpq 26ab1 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 26aaf <_sk_load_f16_dst_sse2+0x2d>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -47422,18 +47427,18 @@ _sk_gather_f16_sse2:
.byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,68,15,111,21,170,196,0,0 // movdqa 0xc4aa(%rip),%xmm10 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,21,60,196,0,0 // movdqa 0xc43c(%rip),%xmm10 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xef8>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,68,15,111,29,167,196,0,0 // movdqa 0xc4a7(%rip),%xmm11 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,68,15,111,29,57,196,0,0 // movdqa 0xc439(%rip),%xmm11 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xf08>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,170,196,0,0 // movdqa 0xc4aa(%rip),%xmm3 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,15,111,29,60,196,0,0 // movdqa 0xc43c(%rip),%xmm3 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0xf18>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,153,196,0,0 // movdqa 0xc499(%rip),%xmm12 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 102,68,15,111,37,43,196,0,0 // movdqa 0xc42b(%rip),%xmm12 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0xf28>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2
@@ -47476,19 +47481,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,237,195,0,0 // movdqa 0xc3ed(%rip),%xmm11 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 102,68,15,111,29,127,195,0,0 // movdqa 0xc37f(%rip),%xmm11 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,234,195,0,0 // movdqa 0xc3ea(%rip),%xmm10 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 102,68,15,111,21,124,195,0,0 // movdqa 0xc37c(%rip),%xmm10 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0xf48>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,232,195,0,0 // movdqa 0xc3e8(%rip),%xmm7 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
- .byte 102,68,15,111,37,143,197,0,0 // movdqa 0xc58f(%rip),%xmm12 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
+ .byte 102,15,111,61,122,195,0,0 // movdqa 0xc37a(%rip),%xmm7 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0xf58>
+ .byte 102,68,15,111,37,33,197,0,0 // movdqa 0xc521(%rip),%xmm12 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x1108>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,65,192,0,0 // movdqa 0xc041(%rip),%xmm13 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 102,68,15,111,45,211,191,0,0 // movdqa 0xbfd3(%rip),%xmm13 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xbd8>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -47544,7 +47549,7 @@ _sk_store_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,37 // jne 26f61 <_sk_store_f16_sse2+0x18c>
+ .byte 117,37 // jne 26f5f <_sk_store_f16_sse2+0x18c>
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7
.byte 243,65,15,127,60,192 // movdqu %xmm7,(%r8,%rax,8)
@@ -47557,13 +47562,13 @@ _sk_store_f16_sse2:
.byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,225 // je 26f58 <_sk_store_f16_sse2+0x183>
+ .byte 116,225 // je 26f56 <_sk_store_f16_sse2+0x183>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,212 // jb 26f58 <_sk_store_f16_sse2+0x183>
+ .byte 114,212 // jb 26f56 <_sk_store_f16_sse2+0x183>
.byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,198 // jmp 26f58 <_sk_store_f16_sse2+0x183>
+ .byte 235,198 // jmp 26f56 <_sk_store_f16_sse2+0x183>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -47578,7 +47583,7 @@ _sk_load_u16_be_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 27077 <_sk_load_u16_be_sse2+0xe5>
+ .byte 15,133,190,0,0,0 // jne 27075 <_sk_load_u16_be_sse2+0xe5>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -47595,7 +47600,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,86,191,0,0 // movaps 0xbf56(%rip),%xmm8 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,5,232,190,0,0 // movaps 0xbee8(%rip),%xmm8 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -47623,16 +47628,16 @@ _sk_load_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 27090 <_sk_load_u16_be_sse2+0xfe>
+ .byte 117,13 // jne 2708e <_sk_load_u16_be_sse2+0xfe>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,54,255,255,255 // jmpq 26fc6 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,54,255,255,255 // jmpq 26fc4 <_sk_load_u16_be_sse2+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,33,255,255,255 // jb 26fc6 <_sk_load_u16_be_sse2+0x34>
+ .byte 15,130,33,255,255,255 // jb 26fc4 <_sk_load_u16_be_sse2+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,21,255,255,255 // jmpq 26fc6 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,21,255,255,255 // jmpq 26fc4 <_sk_load_u16_be_sse2+0x34>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -47649,7 +47654,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,175,0,0,0 // jne 2718b <_sk_load_rgb_u16_be_sse2+0xda>
+ .byte 15,133,175,0,0,0 // jne 27189 <_sk_load_rgb_u16_be_sse2+0xda>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -47670,7 +47675,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,32,190,0,0 // movaps 0xbe20(%rip),%xmm9 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,13,178,189,0,0 // movaps 0xbdb2(%rip),%xmm9 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xcc8>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -47687,27 +47692,27 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,55,187,0,0 // movaps 0xbb37(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,201,186,0,0 // movaps 0xbac9(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 271b0 <_sk_load_rgb_u16_be_sse2+0xff>
+ .byte 117,13 // jne 271ae <_sk_load_rgb_u16_be_sse2+0xff>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 27100 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,80,255,255,255 // jmpq 270fe <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 271e1 <_sk_load_rgb_u16_be_sse2+0x130>
+ .byte 114,24 // jb 271df <_sk_load_rgb_u16_be_sse2+0x130>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,31,255,255,255 // jmpq 27100 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,31,255,255,255 // jmpq 270fe <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 27100 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,22,255,255,255 // jmpq 270fe <_sk_load_rgb_u16_be_sse2+0x4f>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -47721,7 +47726,7 @@ _sk_store_u16_be_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,0,192,0,0 // movaps 0xc000(%rip),%xmm10 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
+ .byte 68,15,40,21,146,191,0,0 // movaps 0xbf92(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf78>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -47766,7 +47771,7 @@ _sk_store_u16_be_sse2:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 2730a <_sk_store_u16_be_sse2+0x120>
+ .byte 117,21 // jne 27308 <_sk_store_u16_be_sse2+0x120>
.byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -47774,13 +47779,13 @@ _sk_store_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 27306 <_sk_store_u16_be_sse2+0x11c>
+ .byte 116,240 // je 27304 <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 27306 <_sk_store_u16_be_sse2+0x11c>
+ .byte 114,227 // jb 27304 <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 27306 <_sk_store_u16_be_sse2+0x11c>
+ .byte 235,213 // jmp 27304 <_sk_store_u16_be_sse2+0x11c>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -47796,7 +47801,7 @@ _sk_load_f32_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 2739c <_sk_load_f32_sse2+0x6b>
+ .byte 117,66 // jne 2739a <_sk_load_f32_sse2+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -47816,17 +47821,17 @@ _sk_load_f32_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 273ae <_sk_load_f32_sse2+0x7d>
+ .byte 117,8 // jne 273ac <_sk_load_f32_sse2+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 2736c <_sk_load_f32_sse2+0x3b>
+ .byte 235,190 // jmp 2736a <_sk_load_f32_sse2+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 273c2 <_sk_load_f32_sse2+0x91>
+ .byte 114,8 // jb 273c0 <_sk_load_f32_sse2+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 2736c <_sk_load_f32_sse2+0x3b>
+ .byte 235,170 // jmp 2736a <_sk_load_f32_sse2+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 2736c <_sk_load_f32_sse2+0x3b>
+ .byte 235,165 // jmp 2736a <_sk_load_f32_sse2+0x3b>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -47842,7 +47847,7 @@ _sk_load_f32_dst_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 27432 <_sk_load_f32_dst_sse2+0x6b>
+ .byte 117,66 // jne 27430 <_sk_load_f32_dst_sse2+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -47862,17 +47867,17 @@ _sk_load_f32_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 27444 <_sk_load_f32_dst_sse2+0x7d>
+ .byte 117,8 // jne 27442 <_sk_load_f32_dst_sse2+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 27402 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,190 // jmp 27400 <_sk_load_f32_dst_sse2+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 27458 <_sk_load_f32_dst_sse2+0x91>
+ .byte 114,8 // jb 27456 <_sk_load_f32_dst_sse2+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 27402 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,170 // jmp 27400 <_sk_load_f32_dst_sse2+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 27402 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,165 // jmp 27400 <_sk_load_f32_dst_sse2+0x3b>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -47901,7 +47906,7 @@ _sk_store_f32_sse2:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 274da <_sk_store_f32_sse2+0x7d>
+ .byte 117,29 // jne 274d8 <_sk_store_f32_sse2+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -47909,12 +47914,12 @@ _sk_store_f32_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 274d6 <_sk_store_f32_sse2+0x79>
+ .byte 116,246 // je 274d4 <_sk_store_f32_sse2+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 274d6 <_sk_store_f32_sse2+0x79>
+ .byte 114,234 // jb 274d4 <_sk_store_f32_sse2+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 274d6 <_sk_store_f32_sse2+0x79>
+ .byte 235,225 // jmp 274d4 <_sk_store_f32_sse2+0x79>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -47928,7 +47933,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,159,183,0,0 // andps 0xb79f(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,84,13,49,183,0,0 // andps 0xb731(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -47948,7 +47953,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,94,183,0,0 // andps 0xb75e(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,84,13,240,182,0,0 // andps 0xb6f0(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -47968,13 +47973,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,0,181,0,0 // mulss 0xb500(%rip),%xmm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 243,68,15,89,13,50,175,0,0 // mulss 0xaf32(%rip),%xmm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,253,182,0,0 // andps 0xb6fd(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,84,13,143,182,0,0 // andps 0xb68f(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -47997,13 +48002,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,148,180,0,0 // mulss 0xb494(%rip),%xmm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 243,68,15,89,13,198,174,0,0 // mulss 0xaec6(%rip),%xmm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,145,182,0,0 // andps 0xb691(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,84,13,35,182,0,0 // andps 0xb623(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -48020,7 +48025,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,97,182,0,0 // minps 0xb661(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,93,5,243,181,0,0 // minps 0xb5f3(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -48033,7 +48038,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 68,15,40,29,63,182,0,0 // movaps 0xb63f(%rip),%xmm11 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,29,209,181,0,0 // movaps 0xb5d1(%rip),%xmm11 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,84,211 // andps %xmm11,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -48048,14 +48053,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,13,119,182,0,0 // movaps 0xb677(%rip),%xmm9 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 68,15,40,13,9,182,0,0 // movaps 0xb609(%rip),%xmm9 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa88>
.byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 68,15,40,21,251,181,0,0 // movaps 0xb5fb(%rip),%xmm10 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,21,141,181,0,0 // movaps 0xb58d(%rip),%xmm10 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 68,15,89,208 // mulps %xmm0,%xmm10
.byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
.byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,40,37,241,181,0,0 // movaps 0xb5f1(%rip),%xmm12 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,37,131,181,0,0 // movaps 0xb583(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,84,212 // andps %xmm12,%xmm10
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 69,15,92,218 // subps %xmm10,%xmm11
@@ -48076,10 +48081,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,19,187,0,0 // mulps 0xbb13(%rip),%xmm0 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
- .byte 15,89,13,28,187,0,0 // mulps 0xbb1c(%rip),%xmm1 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
+ .byte 15,89,5,165,186,0,0 // mulps 0xbaa5(%rip),%xmm0 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf88>
+ .byte 15,89,13,174,186,0,0 // mulps 0xbaae(%rip),%xmm1 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf98>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,34,187,0,0 // mulps 0xbb22(%rip),%xmm3 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
+ .byte 15,89,29,180,186,0,0 // mulps 0xbab4(%rip),%xmm3 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa8>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -48391,9 +48396,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 27bbe <_sk_evenly_spaced_gradient_sse2+0x18>
+ .byte 120,7 // js 27bbc <_sk_evenly_spaced_gradient_sse2+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 27bd3 <_sk_evenly_spaced_gradient_sse2+0x2d>
+ .byte 235,21 // jmp 27bd1 <_sk_evenly_spaced_gradient_sse2+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -48491,15 +48496,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,234,180,0,0 // movaps 0xb4ea(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
+ .byte 15,40,5,124,180,0,0 // movaps 0xb47c(%rip),%xmm0 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,240,180,0,0 // addps 0xb4f0(%rip),%xmm0 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
+ .byte 15,88,5,130,180,0,0 // addps 0xb482(%rip),%xmm0 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfc8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,246,180,0,0 // addps 0xb4f6(%rip),%xmm0 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
+ .byte 15,88,5,136,180,0,0 // addps 0xb488(%rip),%xmm0 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0xfd8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,252,180,0,0 // addps 0xb4fc(%rip),%xmm0 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 15,88,5,142,180,0,0 // addps 0xb48e(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0xfe8>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,2,181,0,0 // addps 0xb502(%rip),%xmm0 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 15,88,5,148,180,0,0 // addps 0xb494(%rip),%xmm0 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0xff8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -48514,7 +48519,7 @@ _sk_gradient_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 27dd3 <_sk_gradient_sse2+0x38>
+ .byte 114,41 // jb 27dd1 <_sk_gradient_sse2+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -48525,7 +48530,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 27db9 <_sk_gradient_sse2+0x1e>
+ .byte 117,230 // jne 27db7 <_sk_gradient_sse2+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
@@ -48665,29 +48670,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,146,178,0,0 // movaps 0xb292(%rip),%xmm13 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,40,45,36,178,0,0 // movaps 0xb224(%rip),%xmm13 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x1008>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,150,178,0,0 // addps 0xb296(%rip),%xmm13 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
+ .byte 68,15,88,45,40,178,0,0 // addps 0xb228(%rip),%xmm13 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1018>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,154,178,0,0 // addps 0xb29a(%rip),%xmm13 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,45,44,178,0,0 // addps 0xb22c(%rip),%xmm13 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1028>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,158,178,0,0 // addps 0xb29e(%rip),%xmm13 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,88,45,48,178,0,0 // addps 0xb230(%rip),%xmm13 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1038>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,157,178,0,0 // movaps 0xb29d(%rip),%xmm10 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,40,21,47,178,0,0 // movaps 0xb22f(%rip),%xmm10 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1048>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,80,172,0,0 // movaps 0xac50(%rip),%xmm10 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,21,226,171,0,0 // movaps 0xabe2(%rip),%xmm10 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,63,172,0,0 // movaps 0xac3f(%rip),%xmm10 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,209,171,0,0 // movaps 0xabd1(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -48722,7 +48727,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,6,178,0,0 // mulps 0xb206(%rip),%xmm9 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,89,13,152,177,0,0 // mulps 0xb198(%rip),%xmm9 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -48730,7 +48735,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,241,177,0,0 // mulps 0xb1f1(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,89,21,131,177,0,0 // mulps 0xb183(%rip),%xmm10 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1068>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -48739,8 +48744,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,153,176,0,0 // xorps 0xb099(%rip),%xmm9 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
- .byte 68,15,89,5,113,171,0,0 // mulps 0xab71(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,87,13,43,176,0,0 // xorps 0xb02b(%rip),%xmm9 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
+ .byte 68,15,89,5,3,171,0,0 // mulps 0xab03(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -48761,7 +48766,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,104,177,0,0 // mulps 0xb168(%rip),%xmm9 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,89,13,250,176,0,0 // mulps 0xb0fa(%rip),%xmm9 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -48769,7 +48774,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,83,177,0,0 // mulps 0xb153(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,89,21,229,176,0,0 // mulps 0xb0e5(%rip),%xmm10 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1068>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -48778,8 +48783,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,251,175,0,0 // xorps 0xaffb(%rip),%xmm9 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
- .byte 68,15,89,5,211,170,0,0 // mulps 0xaad3(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,87,13,141,175,0,0 // xorps 0xaf8d(%rip),%xmm9 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
+ .byte 68,15,89,5,101,170,0,0 // mulps 0xaa65(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -48797,7 +48802,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,219,176,0,0 // mulps 0xb0db(%rip),%xmm9 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,89,13,109,176,0,0 // mulps 0xb06d(%rip),%xmm9 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1058>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -48805,7 +48810,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,151,175,0,0 // xorps 0xaf97(%rip),%xmm0 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 15,87,5,41,175,0,0 // xorps 0xaf29(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0xf38>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48851,7 +48856,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,254,169,0,0 // movaps 0xa9fe(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,144,169,0,0 // movaps 0xa990(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -48859,7 +48864,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,233,169,0,0 // movaps 0xa9e9(%rip),%xmm12 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,37,123,169,0,0 // movaps 0xa97b(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -48906,8 +48911,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,153,175,0,0 // addps 0xaf99(%rip),%xmm0 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,65,169,0,0 // movaps 0xa941(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,43,175,0,0 // addps 0xaf2b(%rip),%xmm0 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ .byte 68,15,40,13,211,168,0,0 // movaps 0xa8d3(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48920,7 +48925,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,13,169,0,0 // addps 0xa90d(%rip),%xmm0 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,5,159,168,0,0 // addps 0xa89f(%rip),%xmm0 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48932,8 +48937,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,76,175,0,0 // addps 0xaf4c(%rip),%xmm1 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,244,168,0,0 // movaps 0xa8f4(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,222,174,0,0 // addps 0xaede(%rip),%xmm1 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ .byte 68,15,40,13,134,168,0,0 // movaps 0xa886(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48946,7 +48951,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,191,168,0,0 // addps 0xa8bf(%rip),%xmm1 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,13,81,168,0,0 // addps 0xa851(%rip),%xmm1 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48958,13 +48963,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,15,175,0,0 // addps 0xaf0f(%rip),%xmm0 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,40,13,167,168,0,0 // movaps 0xa8a7(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,161,174,0,0 // addps 0xaea1(%rip),%xmm0 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1088>
+ .byte 68,15,40,13,57,168,0,0 // movaps 0xa839(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,3,175,0,0 // mulps 0xaf03(%rip),%xmm9 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
- .byte 68,15,88,13,139,170,0,0 // addps 0xaa8b(%rip),%xmm9 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,13,149,174,0,0 // mulps 0xae95(%rip),%xmm9 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ .byte 68,15,88,13,29,170,0,0 // addps 0xaa1d(%rip),%xmm9 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48977,16 +48982,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,183,174,0,0 // addps 0xaeb7(%rip),%xmm0 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,95,168,0,0 // movaps 0xa85f(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,73,174,0,0 // addps 0xae49(%rip),%xmm0 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ .byte 68,15,40,13,241,167,0,0 // movaps 0xa7f1(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,211,174,0,0 // movaps 0xaed3(%rip),%xmm8 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,40,5,101,174,0,0 // movaps 0xae65(%rip),%xmm8 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,215,174,0,0 // addps 0xaed7(%rip),%xmm8 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,5,105,174,0,0 // addps 0xae69(%rip),%xmm8 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,43,168,0,0 // addps 0xa82b(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,5,189,167,0,0 // addps 0xa7bd(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,207,174,0,0 // addps 0xaecf(%rip),%xmm8 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 68,15,88,5,97,174,0,0 // addps 0xae61(%rip),%xmm8 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48996,17 +49001,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,9,168,0,0 // movaps 0xa809(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,155,167,0,0 // movaps 0xa79b(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,130,174,0,0 // movaps 0xae82(%rip),%xmm10 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,40,21,20,174,0,0 // movaps 0xae14(%rip),%xmm10 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,134,174,0,0 // addps 0xae86(%rip),%xmm10 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,21,24,174,0,0 // addps 0xae18(%rip),%xmm10 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,130,174,0,0 // addps 0xae82(%rip),%xmm10 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 68,15,88,21,20,174,0,0 // addps 0xae14(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
.byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49018,11 +49023,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,82,174,0,0 // addps 0xae52(%rip),%xmm0 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 15,88,5,228,173,0,0 // addps 0xade4(%rip),%xmm0 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,34,174,0,0 // mulps 0xae22(%rip),%xmm8 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
- .byte 68,15,88,5,170,169,0,0 // addps 0xa9aa(%rip),%xmm8 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,5,180,173,0,0 // mulps 0xadb4(%rip),%xmm8 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ .byte 68,15,88,5,60,169,0,0 // addps 0xa93c(%rip),%xmm8 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -49035,13 +49040,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,229,173,0,0 // addps 0xade5(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,40,13,125,167,0,0 // movaps 0xa77d(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,119,173,0,0 // addps 0xad77(%rip),%xmm1 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1088>
+ .byte 68,15,40,13,15,167,0,0 // movaps 0xa70f(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,217,173,0,0 // mulps 0xadd9(%rip),%xmm9 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
- .byte 68,15,88,13,97,169,0,0 // addps 0xa961(%rip),%xmm9 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,13,107,173,0,0 // mulps 0xad6b(%rip),%xmm9 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ .byte 68,15,88,13,243,168,0,0 // addps 0xa8f3(%rip),%xmm9 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -49054,16 +49059,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,140,173,0,0 // addps 0xad8c(%rip),%xmm1 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,52,167,0,0 // movaps 0xa734(%rip),%xmm9 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,30,173,0,0 // addps 0xad1e(%rip),%xmm1 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1078>
+ .byte 68,15,40,13,198,166,0,0 // movaps 0xa6c6(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,168,173,0,0 // movaps 0xada8(%rip),%xmm8 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,40,5,58,173,0,0 // movaps 0xad3a(%rip),%xmm8 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,172,173,0,0 // addps 0xadac(%rip),%xmm8 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,5,62,173,0,0 // addps 0xad3e(%rip),%xmm8 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,0,167,0,0 // addps 0xa700(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,5,146,166,0,0 // addps 0xa692(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,164,173,0,0 // addps 0xada4(%rip),%xmm8 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 68,15,88,5,54,173,0,0 // addps 0xad36(%rip),%xmm8 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49073,17 +49078,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,222,166,0,0 // movaps 0xa6de(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,112,166,0,0 // movaps 0xa670(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,86,173,0,0 // movaps 0xad56(%rip),%xmm10 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,40,21,232,172,0,0 // movaps 0xace8(%rip),%xmm10 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a8>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,90,173,0,0 // addps 0xad5a(%rip),%xmm10 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,21,236,172,0,0 // addps 0xacec(%rip),%xmm10 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,86,173,0,0 // addps 0xad56(%rip),%xmm10 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 68,15,88,21,232,172,0,0 // addps 0xace8(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10c8>
.byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49095,11 +49100,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,64 // movups 0x40(%rax),%xmm1
.byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,37,173,0,0 // addps 0xad25(%rip),%xmm1 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 15,88,13,183,172,0,0 // addps 0xacb7(%rip),%xmm1 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b8>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,245,172,0,0 // mulps 0xacf5(%rip),%xmm8 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
- .byte 68,15,88,5,125,168,0,0 // addps 0xa87d(%rip),%xmm8 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,5,135,172,0,0 // mulps 0xac87(%rip),%xmm8 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1098>
+ .byte 68,15,88,5,15,168,0,0 // addps 0xa80f(%rip),%xmm8 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xc28>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -49244,7 +49249,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,60,171,0,0 // movdqa 0xab3c(%rip),%xmm8 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,68,15,111,5,206,170,0,0 // movdqa 0xaace(%rip),%xmm8 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -49283,7 +49288,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,243,163,0,0 // movdqa 0xa3f3(%rip),%xmm12 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,37,133,163,0,0 // movdqa 0xa385(%rip),%xmm12 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -49299,7 +49304,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,40,170,0,0 // movaps 0xaa28(%rip),%xmm4 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 15,40,37,186,169,0,0 // movaps 0xa9ba(%rip),%xmm4 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x10d8>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -49335,7 +49340,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,157,169,0,0 // psubd 0xa99d(%rip),%xmm1 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,13,47,169,0,0 // psubd 0xa92f(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -49425,7 +49430,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,101,161,0,0 // movdqa 0xa165(%rip),%xmm13 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,45,247,160,0,0 // movdqa 0xa0f7(%rip),%xmm13 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -49522,7 +49527,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,56,166,0,0 // movdqa 0xa638(%rip),%xmm3 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,29,202,165,0,0 // movdqa 0xa5ca(%rip),%xmm3 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -49560,7 +49565,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,248,158,0,0 // movdqa 0x9ef8(%rip),%xmm0 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,5,138,158,0,0 // movdqa 0x9e8a(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -49641,7 +49646,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,21,164,0,0 // movdqa 0xa415(%rip),%xmm1 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,13,167,163,0,0 // movdqa 0xa3a7(%rip),%xmm1 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -49663,7 +49668,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,186,163,0,0 // psubd 0xa3ba(%rip),%xmm1 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,13,76,163,0,0 // psubd 0xa34c(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -49678,7 +49683,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,213,156,0,0 // paddd 0x9cd5(%rip),%xmm0 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,5,103,156,0,0 // paddd 0x9c67(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -49715,7 +49720,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,196,162,0,0 // psubd 0xa2c4(%rip),%xmm1 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,13,86,162,0,0 // psubd 0xa256(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -49730,7 +49735,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,223,155,0,0 // paddd 0x9bdf(%rip),%xmm2 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,21,113,155,0,0 // paddd 0x9b71(%rip),%xmm2 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -49876,7 +49881,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,7,160,0,0 // movdqa 0xa007(%rip),%xmm4 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,37,153,159,0,0 // movdqa 0x9f99(%rip),%xmm4 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -49915,7 +49920,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,193,152,0,0 // paddd 0x98c1(%rip),%xmm0 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,5,83,152,0,0 // paddd 0x9853(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -49930,7 +49935,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,251,158,0,0 // movaps 0x9efb(%rip),%xmm6 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 15,40,53,141,158,0,0 // movaps 0x9e8d(%rip),%xmm6 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x10d8>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -49948,7 +49953,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,177,158,0,0 // movdqa 0x9eb1(%rip),%xmm1 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,13,67,158,0,0 // movdqa 0x9e43(%rip),%xmm1 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -49969,7 +49974,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,92,158,0,0 // psubd 0x9e5c(%rip),%xmm0 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,5,238,157,0,0 // psubd 0x9dee(%rip),%xmm0 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -49984,7 +49989,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,116,151,0,0 // paddd 0x9774(%rip),%xmm1 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,13,6,151,0,0 // paddd 0x9706(%rip),%xmm1 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -50022,7 +50027,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,91,157,0,0 // movdqa 0x9d5b(%rip),%xmm4 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,37,237,156,0,0 // movdqa 0x9ced(%rip),%xmm4 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -50060,7 +50065,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,23,150,0,0 // movdqa 0x9617(%rip),%xmm8 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,5,169,149,0,0 // movdqa 0x95a9(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -50206,7 +50211,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,113,147,0,0 // movdqa 0x9371(%rip),%xmm15 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,61,3,147,0,0 // movdqa 0x9303(%rip),%xmm15 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -50289,7 +50294,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,144,152,0,0 // movdqa 0x9890(%rip),%xmm5 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,45,34,152,0,0 // movdqa 0x9822(%rip),%xmm5 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -50310,7 +50315,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,57,152,0,0 // psubd 0x9839(%rip),%xmm5 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,45,203,151,0,0 // psubd 0x97cb(%rip),%xmm5 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -50342,7 +50347,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,151,151,0,0 // movdqa 0x9797(%rip),%xmm3 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,29,41,151,0,0 // movdqa 0x9729(%rip),%xmm3 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -50363,7 +50368,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,55,151,0,0 // psubd 0x9737(%rip),%xmm5 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,45,201,150,0,0 // psubd 0x96c9(%rip),%xmm5 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -50378,7 +50383,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,81,144,0,0 // movdqa 0x9051(%rip),%xmm9 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,13,227,143,0,0 // movdqa 0x8fe3(%rip),%xmm9 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -50440,7 +50445,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,210,149,0,0 // movdqa 0x95d2(%rip),%xmm2 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,21,100,149,0,0 // movdqa 0x9564(%rip),%xmm2 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -50633,7 +50638,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,110,146,0,0 // psubd 0x926e(%rip),%xmm2 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,21,0,146,0,0 // psubd 0x9200(%rip),%xmm2 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -50693,7 +50698,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,77,145,0,0 // movdqa 0x914d(%rip),%xmm8 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,68,15,111,5,223,144,0,0 // movdqa 0x90df(%rip),%xmm8 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -50731,7 +50736,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,11,138,0,0 // movdqa 0x8a0b(%rip),%xmm8 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,5,157,137,0,0 // movdqa 0x899d(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -50814,7 +50819,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,39,143,0,0 // movdqa 0x8f27(%rip),%xmm4 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,111,37,185,142,0,0 // movdqa 0x8eb9(%rip),%xmm4 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x10e8>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -50835,7 +50840,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,208,142,0,0 // psubd 0x8ed0(%rip),%xmm1 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,13,98,142,0,0 // psubd 0x8e62(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -50850,7 +50855,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,233,135,0,0 // paddd 0x87e9(%rip),%xmm0 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,5,123,135,0,0 // paddd 0x877b(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -50888,7 +50893,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,216,141,0,0 // psubd 0x8dd8(%rip),%xmm1 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,250,13,106,141,0,0 // psubd 0x8d6a(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x10f8>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -50903,7 +50908,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,243,134,0,0 // paddd 0x86f3(%rip),%xmm2 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,21,133,134,0,0 // paddd 0x8685(%rip),%xmm2 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xa58>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -50962,7 +50967,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,223,133,0,0 // movaps 0x85df(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,113,133,0,0 // movaps 0x8571(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa28>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -50971,8 +50976,6 @@ _sk_clut_4D_sse2:
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 144 // nop
- .byte 144 // nop
HIDDEN _sk_start_pipeline_hsw_lowp
.globl _sk_start_pipeline_hsw_lowp
@@ -50995,13 +50998,13 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 2a7d2 <_sk_start_pipeline_hsw_lowp+0xca>
+ .byte 15,131,151,0,0,0 // jae 2a7ce <_sk_start_pipeline_hsw_lowp+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,16 // lea 0x10(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 2a794 <_sk_start_pipeline_hsw_lowp+0x8c>
+ .byte 119,67 // ja 2a790 <_sk_start_pipeline_hsw_lowp+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -51020,10 +51023,10 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,131,196,32 // add $0x20,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 2a755 <_sk_start_pipeline_hsw_lowp+0x4d>
+ .byte 118,193 // jbe 2a751 <_sk_start_pipeline_hsw_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 2a7c5 <_sk_start_pipeline_hsw_lowp+0xbd>
+ .byte 116,41 // je 2a7c1 <_sk_start_pipeline_hsw_lowp+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -51037,7 +51040,7 @@ _sk_start_pipeline_hsw_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 2a747 <_sk_start_pipeline_hsw_lowp+0x3f>
+ .byte 15,133,117,255,255,255 // jne 2a743 <_sk_start_pipeline_hsw_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -51071,7 +51074,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,114,129,0,0 // vpbroadcastw 0x8172(%rip),%ymm3 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x754>
+ .byte 196,226,125,121,29,182,130,0,0 // vpbroadcastw 0x82b6(%rip),%ymm3 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -51082,7 +51085,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,91,129,0,0 // vpbroadcastw 0x815b(%rip),%ymm0 # 32982 <_sk_srcover_rgba_8888_sse2_lowp+0x756>
+ .byte 196,226,125,121,5,159,130,0,0 // vpbroadcastw 0x829f(%rip),%ymm0 # 32ac2 <_sk_srcover_rgba_8888_sse2_lowp+0x89a>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -51093,8 +51096,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,101,130,0,0 // vmovss 0x8265(%rip),%xmm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
- .byte 197,250,16,21,141,130,0,0 // vmovss 0x828d(%rip),%xmm2 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 197,122,16,5,153,124,0,0 // vmovss 0x7c99(%rip),%xmm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
+ .byte 197,250,16,21,193,124,0,0 // vmovss 0x7cc1(%rip),%xmm2 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -51117,7 +51120,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,234,128,0,0 // vpbroadcastw 0x80ea(%rip),%ymm8 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x758>
+ .byte 196,98,125,121,5,46,130,0,0 // vpbroadcastw 0x822e(%rip),%ymm8 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -51165,7 +51168,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,129,128,0,0 // vpbroadcastw 0x8081(%rip),%ymm8 # 32986 <_sk_srcover_rgba_8888_sse2_lowp+0x75a>
+ .byte 196,98,125,121,5,197,129,0,0 // vpbroadcastw 0x81c5(%rip),%ymm8 # 32ac6 <_sk_srcover_rgba_8888_sse2_lowp+0x89e>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -51189,7 +51192,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,78,128,0,0 // vpbroadcastw 0x804e(%rip),%ymm8 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x75c>
+ .byte 196,98,125,121,5,146,129,0,0 // vpbroadcastw 0x8192(%rip),%ymm8 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51216,7 +51219,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,238,127,0,0 // vpbroadcastw 0x7fee(%rip),%ymm9 # 3298a <_sk_srcover_rgba_8888_sse2_lowp+0x75e>
+ .byte 196,98,125,121,13,50,129,0,0 // vpbroadcastw 0x8132(%rip),%ymm9 # 32aca <_sk_srcover_rgba_8888_sse2_lowp+0x8a2>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -51243,7 +51246,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,139,127,0,0 // vpbroadcastw 0x7f8b(%rip),%ymm8 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x760>
+ .byte 196,98,125,121,5,207,128,0,0 // vpbroadcastw 0x80cf(%rip),%ymm8 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -51263,7 +51266,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,72,127,0,0 // vpbroadcastw 0x7f48(%rip),%ymm8 # 3298e <_sk_srcover_rgba_8888_sse2_lowp+0x762>
+ .byte 196,98,125,121,5,140,128,0,0 // vpbroadcastw 0x808c(%rip),%ymm8 # 32ace <_sk_srcover_rgba_8888_sse2_lowp+0x8a6>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -51282,7 +51285,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,9,127,0,0 // vpbroadcastw 0x7f09(%rip),%ymm8 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x764>
+ .byte 196,98,125,121,5,77,128,0,0 // vpbroadcastw 0x804d(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51303,7 +51306,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,194,126,0,0 // vpbroadcastw 0x7ec2(%rip),%ymm8 # 32992 <_sk_srcover_rgba_8888_sse2_lowp+0x766>
+ .byte 196,98,125,121,5,6,128,0,0 // vpbroadcastw 0x8006(%rip),%ymm8 # 32ad2 <_sk_srcover_rgba_8888_sse2_lowp+0x8aa>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51324,7 +51327,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,123,126,0,0 // vpbroadcastw 0x7e7b(%rip),%ymm8 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x768>
+ .byte 196,98,125,121,5,191,127,0,0 // vpbroadcastw 0x7fbf(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -51349,7 +51352,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,32,126,0,0 // vpbroadcastw 0x7e20(%rip),%ymm8 # 32996 <_sk_srcover_rgba_8888_sse2_lowp+0x76a>
+ .byte 196,98,125,121,5,100,127,0,0 // vpbroadcastw 0x7f64(%rip),%ymm8 # 32ad6 <_sk_srcover_rgba_8888_sse2_lowp+0x8ae>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51375,7 +51378,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,197,125,0,0 // vpbroadcastw 0x7dc5(%rip),%ymm8 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x76c>
+ .byte 196,98,125,121,5,9,127,0,0 // vpbroadcastw 0x7f09(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -51394,7 +51397,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,134,125,0,0 // vpbroadcastw 0x7d86(%rip),%ymm8 # 3299a <_sk_srcover_rgba_8888_sse2_lowp+0x76e>
+ .byte 196,98,125,121,5,202,126,0,0 // vpbroadcastw 0x7eca(%rip),%ymm8 # 32ada <_sk_srcover_rgba_8888_sse2_lowp+0x8b2>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -51430,7 +51433,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,252,124,0,0 // vpbroadcastw 0x7cfc(%rip),%ymm8 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x770>
+ .byte 196,98,125,121,5,64,126,0,0 // vpbroadcastw 0x7e40(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -51447,7 +51450,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,201,124,0,0 // vpbroadcastw 0x7cc9(%rip),%ymm9 # 3299e <_sk_srcover_rgba_8888_sse2_lowp+0x772>
+ .byte 196,98,125,121,13,13,126,0,0 // vpbroadcastw 0x7e0d(%rip),%ymm9 # 32ade <_sk_srcover_rgba_8888_sse2_lowp+0x8b6>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -51473,7 +51476,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,110,124,0,0 // vpbroadcastw 0x7c6e(%rip),%ymm8 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x774>
+ .byte 196,98,125,121,5,178,125,0,0 // vpbroadcastw 0x7db2(%rip),%ymm8 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -51507,7 +51510,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,242,123,0,0 // vpbroadcastw 0x7bf2(%rip),%ymm9 # 329a2 <_sk_srcover_rgba_8888_sse2_lowp+0x776>
+ .byte 196,98,125,121,13,54,125,0,0 // vpbroadcastw 0x7d36(%rip),%ymm9 # 32ae2 <_sk_srcover_rgba_8888_sse2_lowp+0x8ba>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -51541,7 +51544,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,115,123,0,0 // vpbroadcastw 0x7b73(%rip),%ymm9 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x778>
+ .byte 196,98,125,121,13,183,124,0,0 // vpbroadcastw 0x7cb7(%rip),%ymm9 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -51575,10 +51578,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,244,122,0,0 // vpbroadcastw 0x7af4(%rip),%ymm9 # 329a6 <_sk_srcover_rgba_8888_sse2_lowp+0x77a>
+ .byte 196,98,125,121,13,56,124,0,0 // vpbroadcastw 0x7c38(%rip),%ymm9 # 32ae6 <_sk_srcover_rgba_8888_sse2_lowp+0x8be>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,227,122,0,0 // vpbroadcastw 0x7ae3(%rip),%ymm10 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x77c>
+ .byte 196,98,125,121,21,39,124,0,0 // vpbroadcastw 0x7c27(%rip),%ymm10 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -51611,10 +51614,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,104,122,0,0 // vpbroadcastw 0x7a68(%rip),%ymm9 # 329aa <_sk_srcover_rgba_8888_sse2_lowp+0x77e>
+ .byte 196,98,125,121,13,172,123,0,0 // vpbroadcastw 0x7bac(%rip),%ymm9 # 32aea <_sk_srcover_rgba_8888_sse2_lowp+0x8c2>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,87,122,0,0 // vpbroadcastw 0x7a57(%rip),%ymm10 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x780>
+ .byte 196,98,125,121,21,155,123,0,0 // vpbroadcastw 0x7b9b(%rip),%ymm10 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -51642,7 +51645,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,244,121,0,0 // vpbroadcastw 0x79f4(%rip),%ymm9 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x784>
+ .byte 196,98,125,121,13,56,123,0,0 // vpbroadcastw 0x7b38(%rip),%ymm9 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -51670,7 +51673,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,107,121,0,0 // vpbroadcastw 0x796b(%rip),%ymm14 # 329ae <_sk_srcover_rgba_8888_sse2_lowp+0x782>
+ .byte 196,98,125,121,53,175,122,0,0 // vpbroadcastw 0x7aaf(%rip),%ymm14 # 32aee <_sk_srcover_rgba_8888_sse2_lowp+0x8c6>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -51707,7 +51710,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,224,120,0,0 // vpbroadcastw 0x78e0(%rip),%ymm9 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x788>
+ .byte 196,98,125,121,13,36,122,0,0 // vpbroadcastw 0x7a24(%rip),%ymm9 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -51731,7 +51734,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,104,120,0,0 // vpbroadcastw 0x7868(%rip),%ymm13 # 329b2 <_sk_srcover_rgba_8888_sse2_lowp+0x786>
+ .byte 196,98,125,121,45,172,121,0,0 // vpbroadcastw 0x79ac(%rip),%ymm13 # 32af2 <_sk_srcover_rgba_8888_sse2_lowp+0x8ca>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -51783,10 +51786,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b240 <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b23c <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,161,1,0,0 // lea 0x1a1(%rip),%r9 # 2b3b8 <_sk_load_8888_hsw_lowp+0x1ca>
+ .byte 76,141,13,161,1,0,0 // lea 0x1a1(%rip),%r9 # 2b3b4 <_sk_load_8888_hsw_lowp+0x1ca>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51796,10 +51799,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2b367 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b363 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2b367 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b363 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -51808,7 +51811,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2b367 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b363 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51824,7 +51827,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2b367 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b363 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51834,7 +51837,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2b367 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b363 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51854,7 +51857,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,48,118,0,0 // vmovdqa 0x7630(%rip),%ymm8 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x794>
+ .byte 197,125,111,5,116,119,0,0 // vmovdqa 0x7774(%rip),%ymm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -51865,7 +51868,7 @@ _sk_load_8888_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 121,254 // jns 2b3b8 <_sk_load_8888_hsw_lowp+0x1ca>
+ .byte 121,254 // jns 2b3b4 <_sk_load_8888_hsw_lowp+0x1ca>
.byte 255 // (bad)
.byte 255,176,254,255,255,154 // pushq -0x65000002(%rax)
.byte 254 // (bad)
@@ -51890,7 +51893,7 @@ _sk_load_8888_hsw_lowp:
.byte 255 // (bad)
.byte 59,255 // cmp %edi,%edi
.byte 255 // (bad)
- .byte 255,37,255,255,255,156 // jmpq *-0x63000001(%rip) # ffffffff9d02b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cff91b8>
+ .byte 255,37,255,255,255,156 // jmpq *-0x63000001(%rip) # ffffffff9d02b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cff91b8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,136,255,255,255,116 // decl 0x74ffffff(%rax)
@@ -51913,10 +51916,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b446 <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b442 <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b5c0 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b5bc <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51926,10 +51929,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2b56d <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b569 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2b56d <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b569 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -51938,7 +51941,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2b56d <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b569 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51954,7 +51957,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2b56d <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b569 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51964,7 +51967,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2b56d <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b569 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51984,7 +51987,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,74,116,0,0 // vmovdqa 0x744a(%rip),%ymm8 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x7b4>
+ .byte 197,125,111,5,142,117,0,0 // vmovdqa 0x758e(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -51995,7 +51998,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2b5c0 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2b5bc <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -52056,20 +52059,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2b67d <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 2b679 <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2b72c <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2b728 <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2b728 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2b724 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2b728 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2b724 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2b728 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2b724 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -52077,12 +52080,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2b728 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2b724 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2b728 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2b724 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -52139,10 +52142,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b7ba <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b7b6 <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b934 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b930 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52152,10 +52155,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2b8e1 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b8dd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2b8e1 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b8dd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -52164,7 +52167,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2b8e1 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b8dd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52180,7 +52183,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2b8e1 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b8dd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52190,7 +52193,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2b8e1 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b8dd <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52210,7 +52213,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,246,112,0,0 // vmovdqa 0x70f6(%rip),%ymm8 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x7d4>
+ .byte 197,125,111,5,58,114,0,0 // vmovdqa 0x723a(%rip),%ymm8 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -52221,7 +52224,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2b934 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2b930 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -52268,10 +52271,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b9c2 <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b9be <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2bb3c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2bb38 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52281,10 +52284,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2bae9 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2bae5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2bae9 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2bae5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -52293,7 +52296,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2bae9 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2bae5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52309,7 +52312,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2bae9 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2bae5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52319,7 +52322,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2bae9 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2bae5 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52339,7 +52342,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,14,111,0,0 // vmovdqa 0x6f0e(%rip),%ymm8 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x7f4>
+ .byte 197,125,111,5,82,112,0,0 // vmovdqa 0x7052(%rip),%ymm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -52350,7 +52353,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2bb3c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2bb38 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -52411,20 +52414,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2bbf9 <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 2bbf5 <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2bca8 <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2bca4 <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2bca4 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2bca0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2bca4 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2bca0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2bca4 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2bca0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -52432,12 +52435,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2bca4 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2bca0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2bca4 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2bca0 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -52494,24 +52497,24 @@ _sk_load_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2bd23 <_sk_load_565_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2bd1f <_sk_load_565_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2be90 <_sk_load_565_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2be8c <_sk_load_565_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2be2b <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2be27 <_sk_load_565_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2be2b <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2be27 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2be2b <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2be27 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -52521,7 +52524,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2be2b <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2be27 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -52533,7 +52536,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2be2b <_sk_load_565_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2be27 <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -52547,13 +52550,13 @@ _sk_load_565_hsw_lowp:
.byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
.byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,12,108,0,0 // vpbroadcastw 0x6c0c(%rip),%ymm1 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x814>
+ .byte 196,226,125,121,13,80,109,0,0 // vpbroadcastw 0x6d50(%rip),%ymm1 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,247,107,0,0 // vpbroadcastw 0x6bf7(%rip),%ymm3 # 32a42 <_sk_srcover_rgba_8888_sse2_lowp+0x816>
+ .byte 196,226,125,121,29,59,109,0,0 // vpbroadcastw 0x6d3b(%rip),%ymm3 # 32b82 <_sk_srcover_rgba_8888_sse2_lowp+0x95a>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,236,107,0,0 // vpbroadcastw 0x6bec(%rip),%ymm3 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x818>
+ .byte 196,226,125,121,29,48,109,0,0 // vpbroadcastw 0x6d30(%rip),%ymm3 # 32b84 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -52564,7 +52567,7 @@ _sk_load_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,186,107,0,0 // vpbroadcastw 0x6bba(%rip),%ymm3 # 32a46 <_sk_srcover_rgba_8888_sse2_lowp+0x81a>
+ .byte 196,226,125,121,29,254,108,0,0 // vpbroadcastw 0x6cfe(%rip),%ymm3 # 32b86 <_sk_srcover_rgba_8888_sse2_lowp+0x95e>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -52619,24 +52622,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2bf0b <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2bf07 <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2c078 <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2c074 <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2c013 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2c00f <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2c013 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2c00f <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2c013 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2c00f <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -52646,7 +52649,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2c013 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2c00f <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -52658,7 +52661,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2c013 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2c00f <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -52672,13 +52675,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,44,106,0,0 // vpbroadcastw 0x6a2c(%rip),%ymm5 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x81c>
+ .byte 196,226,125,121,45,112,107,0,0 // vpbroadcastw 0x6b70(%rip),%ymm5 # 32b88 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,23,106,0,0 // vpbroadcastw 0x6a17(%rip),%ymm7 # 32a4a <_sk_srcover_rgba_8888_sse2_lowp+0x81e>
+ .byte 196,226,125,121,61,91,107,0,0 // vpbroadcastw 0x6b5b(%rip),%ymm7 # 32b8a <_sk_srcover_rgba_8888_sse2_lowp+0x962>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,12,106,0,0 // vpbroadcastw 0x6a0c(%rip),%ymm7 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x820>
+ .byte 196,226,125,121,61,80,107,0,0 // vpbroadcastw 0x6b50(%rip),%ymm7 # 32b8c <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -52689,7 +52692,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,218,105,0,0 // vpbroadcastw 0x69da(%rip),%ymm7 # 32a4e <_sk_srcover_rgba_8888_sse2_lowp+0x822>
+ .byte 196,226,125,121,61,30,107,0,0 // vpbroadcastw 0x6b1e(%rip),%ymm7 # 32b8e <_sk_srcover_rgba_8888_sse2_lowp+0x966>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -52740,10 +52743,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,131,105,0,0 // vpbroadcastw 0x6983(%rip),%ymm8 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
+ .byte 196,98,125,121,5,199,106,0,0 // vpbroadcastw 0x6ac7(%rip),%ymm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,114,105,0,0 // vpbroadcastw 0x6972(%rip),%ymm9 # 32a52 <_sk_srcover_rgba_8888_sse2_lowp+0x826>
+ .byte 196,98,125,121,13,182,106,0,0 // vpbroadcastw 0x6ab6(%rip),%ymm9 # 32b92 <_sk_srcover_rgba_8888_sse2_lowp+0x96a>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -52753,31 +52756,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2c122 <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 2c11e <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2c1d0 <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2c1cc <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2c1c9 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 2c1c5 <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2c1c9 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 2c1c5 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2c1c9 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 2c1c5 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2c1c9 <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 2c1c5 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2c1c3 <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2c1bf <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -52800,7 +52803,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 2c1e5 <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 2c1e1 <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -52836,38 +52839,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c248 <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c244 <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c30c <_sk_load_a8_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c308 <_sk_load_a8_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2c2f7 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c2f3 <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2c2f7 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c2f3 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2c2f7 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c2f3 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2c2f7 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c2f3 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2c2f7 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c2f3 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -52927,38 +52930,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c384 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c380 <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c448 <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c444 <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2c433 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c42f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2c433 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c42f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2c433 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c42f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2c433 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c42f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2c433 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c42f <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -53015,7 +53018,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,17,111,0,0 // vmovdqa 0x6f11(%rip),%xmm9 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 197,121,111,13,165,110,0,0 // vmovdqa 0x6ea5(%rip),%xmm9 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1118>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -53023,28 +53026,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 2c4d4 <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 2c4d0 <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2c554 <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2c550 <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 2c54d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 2c549 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 2c54d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 2c549 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 2c54d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 2c549 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 2c54d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 2c549 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 2c547 <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 2c543 <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -53053,7 +53056,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 2c555 <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 2c551 <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -53100,38 +53103,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c5cc <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c5c8 <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c698 <_sk_load_g8_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c694 <_sk_load_g8_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2c67b <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c677 <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2c67b <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c677 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2c67b <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c677 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2c67b <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c677 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2c67b <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c677 <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -53141,7 +53144,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,201,99,0,0 // vpbroadcastw 0x63c9(%rip),%ymm3 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,121,29,13,101,0,0 // vpbroadcastw 0x650d(%rip),%ymm3 # 32b94 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -53155,7 +53158,7 @@ _sk_load_g8_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2c6a5 <_sk_load_g8_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2c6a1 <_sk_load_g8_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -53193,38 +53196,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c710 <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c70c <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c7dc <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c7d8 <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2c7bf <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c7bb <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2c7bf <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c7bb <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2c7bf <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c7bb <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2c7bf <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c7bb <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2c7bf <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c7bb <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -53234,7 +53237,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,135,98,0,0 // vpbroadcastw 0x6287(%rip),%ymm7 # 32a56 <_sk_srcover_rgba_8888_sse2_lowp+0x82a>
+ .byte 196,226,125,121,61,203,99,0,0 // vpbroadcastw 0x63cb(%rip),%ymm7 # 32b96 <_sk_srcover_rgba_8888_sse2_lowp+0x96e>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -53248,7 +53251,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2c7e9 <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2c7e5 <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -53278,12 +53281,12 @@ HIDDEN _sk_luminance_to_alpha_hsw_lowp
.globl _sk_luminance_to_alpha_hsw_lowp
FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
_sk_luminance_to_alpha_hsw_lowp:
- .byte 196,226,125,121,29,55,98,0,0 // vpbroadcastw 0x6237(%rip),%ymm3 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,121,29,123,99,0,0 // vpbroadcastw 0x637b(%rip),%ymm3 # 32b98 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,121,29,44,98,0,0 // vpbroadcastw 0x622c(%rip),%ymm3 # 32a5a <_sk_srcover_rgba_8888_sse2_lowp+0x82e>
+ .byte 196,226,125,121,29,112,99,0,0 // vpbroadcastw 0x6370(%rip),%ymm3 # 32b9a <_sk_srcover_rgba_8888_sse2_lowp+0x972>
.byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1
.byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,29,98,0,0 // vpbroadcastw 0x621d(%rip),%ymm1 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x830>
+ .byte 196,226,125,121,13,97,99,0,0 // vpbroadcastw 0x6361(%rip),%ymm1 # 32b9c <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1
.byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
.byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3
@@ -53299,13 +53302,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,106,98,0,0 // vmovss 0x626a(%rip),%xmm9 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,57,169,13,49,98,0,0 // vfmadd213ss 0x6231(%rip),%xmm8,%xmm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 197,122,16,13,158,92,0,0 // vmovss 0x5c9e(%rip),%xmm9 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,101,92,0,0 // vfmadd213ss 0x5c65(%rip),%xmm8,%xmm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,208,97,0,0 // vpbroadcastw 0x61d0(%rip),%ymm9 # 32a5e <_sk_srcover_rgba_8888_sse2_lowp+0x832>
+ .byte 196,98,125,121,13,20,99,0,0 // vpbroadcastw 0x6314(%rip),%ymm9 # 32b9e <_sk_srcover_rgba_8888_sse2_lowp+0x976>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -53326,12 +53329,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,0,98,0,0 // vmovss 0x6200(%rip),%xmm9 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 196,98,57,169,13,199,97,0,0 // vfmadd213ss 0x61c7(%rip),%xmm8,%xmm9 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 197,122,16,13,52,92,0,0 // vmovss 0x5c34(%rip),%xmm9 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
+ .byte 196,98,57,169,13,251,91,0,0 // vfmadd213ss 0x5bfb(%rip),%xmm8,%xmm9 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,108,97,0,0 // vpbroadcastw 0x616c(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
+ .byte 196,98,125,121,13,176,98,0,0 // vpbroadcastw 0x62b0(%rip),%ymm9 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -53368,38 +53371,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2c992 <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2c98e <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2ca90 <_sk_scale_u8_hsw_lowp+0x13b>
+ .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2ca8c <_sk_scale_u8_hsw_lowp+0x13b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2ca45 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2ca41 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2ca45 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2ca41 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2ca45 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2ca41 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2ca45 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2ca41 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2ca45 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2ca41 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -53409,7 +53412,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,11,96,0,0 // vpbroadcastw 0x600b(%rip),%ymm9 # 32a62 <_sk_srcover_rgba_8888_sse2_lowp+0x836>
+ .byte 196,98,125,121,13,79,97,0,0 // vpbroadcastw 0x614f(%rip),%ymm9 # 32ba2 <_sk_srcover_rgba_8888_sse2_lowp+0x97a>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -53430,7 +53433,7 @@ _sk_scale_u8_hsw_lowp:
.byte 255,26 // lcall *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02ca9c <_sk_srcover_rgba_8888_sse2_lowp+0x4bffa870>
+ .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02ca98 <_sk_srcover_rgba_8888_sse2_lowp+0x4bffa870>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,67,255 // incl -0x1(%rbx)
@@ -53469,38 +53472,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2cb09 <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2cb05 <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2cc2c <_sk_lerp_u8_hsw_lowp+0x160>
+ .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2cc28 <_sk_lerp_u8_hsw_lowp+0x160>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2cbbc <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2cbb8 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2cbbc <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2cbb8 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2cbbc <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2cbb8 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2cbbc <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2cbb8 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2cbbc <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2cbb8 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -53509,7 +53512,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,154,94,0,0 // vpbroadcastw 0x5e9a(%rip),%ymm9 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
+ .byte 196,98,125,121,13,222,95,0,0 // vpbroadcastw 0x5fde(%rip),%ymm9 # 32ba4 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -53541,7 +53544,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,254,255,255,38 // callq 2702cc37 <_sk_srcover_rgba_8888_sse2_lowp+0x26ffaa0b>
+ .byte 232,254,255,255,38 // callq 2702cc33 <_sk_srcover_rgba_8888_sse2_lowp+0x26ffaa0b>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,30 // lcall *(%rsi)
@@ -53562,7 +53565,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2cc59 <_sk_lerp_u8_hsw_lowp+0x18d>
+ .byte 124,255 // jl 2cc55 <_sk_lerp_u8_hsw_lowp+0x18d>
.byte 255 // (bad)
.byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
@@ -53583,24 +53586,24 @@ _sk_scale_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2cca8 <_sk_scale_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2cca4 <_sk_scale_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2ce90 <_sk_scale_565_hsw_lowp+0x228>
+ .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2ce8c <_sk_scale_565_hsw_lowp+0x228>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2cdb4 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2cdb0 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2cdb4 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2cdb0 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2cdb4 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2cdb0 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -53610,7 +53613,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2cdb4 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2cdb0 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53622,7 +53625,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2cdb4 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2cdb0 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53636,13 +53639,13 @@ _sk_scale_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,169,92,0,0 // vpbroadcastw 0x5ca9(%rip),%ymm9 # 32a66 <_sk_srcover_rgba_8888_sse2_lowp+0x83a>
+ .byte 196,98,125,121,13,237,93,0,0 // vpbroadcastw 0x5ded(%rip),%ymm9 # 32ba6 <_sk_srcover_rgba_8888_sse2_lowp+0x97e>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,145,92,0,0 // vpbroadcastw 0x5c91(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
+ .byte 196,98,125,121,29,213,93,0,0 // vpbroadcastw 0x5dd5(%rip),%ymm11 # 32ba8 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,133,92,0,0 // vpbroadcastw 0x5c85(%rip),%ymm11 # 32a6a <_sk_srcover_rgba_8888_sse2_lowp+0x83e>
+ .byte 196,98,125,121,29,201,93,0,0 // vpbroadcastw 0x5dc9(%rip),%ymm11 # 32baa <_sk_srcover_rgba_8888_sse2_lowp+0x982>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -53652,7 +53655,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,76,92,0,0 // vpbroadcastw 0x5c4c(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x840>
+ .byte 196,98,125,121,29,144,93,0,0 // vpbroadcastw 0x5d90(%rip),%ymm11 # 32bac <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -53662,7 +53665,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,5,24,92,0,0 // vpbroadcastw 0x5c18(%rip),%ymm8 # 32a6e <_sk_srcover_rgba_8888_sse2_lowp+0x842>
+ .byte 196,98,125,121,5,92,93,0,0 // vpbroadcastw 0x5d5c(%rip),%ymm8 # 32bae <_sk_srcover_rgba_8888_sse2_lowp+0x986>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
@@ -53726,24 +53729,24 @@ _sk_lerp_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2cf0c <_sk_lerp_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2cf08 <_sk_lerp_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2d128 <_sk_lerp_565_hsw_lowp+0x25c>
+ .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2d124 <_sk_lerp_565_hsw_lowp+0x25c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2d018 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2d014 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2d018 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2d014 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2d018 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2d014 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -53753,7 +53756,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2d018 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2d014 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53765,7 +53768,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2d018 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2d014 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53779,13 +53782,13 @@ _sk_lerp_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,79,90,0,0 // vpbroadcastw 0x5a4f(%rip),%ymm9 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,121,13,147,91,0,0 // vpbroadcastw 0x5b93(%rip),%ymm9 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,55,90,0,0 // vpbroadcastw 0x5a37(%rip),%ymm11 # 32a72 <_sk_srcover_rgba_8888_sse2_lowp+0x846>
+ .byte 196,98,125,121,29,123,91,0,0 // vpbroadcastw 0x5b7b(%rip),%ymm11 # 32bb2 <_sk_srcover_rgba_8888_sse2_lowp+0x98a>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,43,90,0,0 // vpbroadcastw 0x5a2b(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,121,29,111,91,0,0 // vpbroadcastw 0x5b6f(%rip),%ymm11 # 32bb4 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -53795,7 +53798,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,242,89,0,0 // vpbroadcastw 0x59f2(%rip),%ymm11 # 32a76 <_sk_srcover_rgba_8888_sse2_lowp+0x84a>
+ .byte 196,98,125,121,29,54,91,0,0 // vpbroadcastw 0x5b36(%rip),%ymm11 # 32bb6 <_sk_srcover_rgba_8888_sse2_lowp+0x98e>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -53804,7 +53807,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 196,98,125,121,37,194,89,0,0 // vpbroadcastw 0x59c2(%rip),%ymm12 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,121,37,6,91,0,0 // vpbroadcastw 0x5b06(%rip),%ymm12 # 32bb8 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13
.byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -53885,9 +53888,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 2d1c0 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 2d1bc <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 2d484 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 2d480 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53897,10 +53900,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 2d2d6 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 2d2d2 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 2d2d6 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 2d2d2 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -53909,7 +53912,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 2d2d6 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 2d2d2 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53925,7 +53928,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 2d2d6 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 2d2d2 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53935,7 +53938,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 2d2d6 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 2d2d2 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53955,9 +53958,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,129,87,0,0 // vmovdqa 0x5781(%rip),%ymm8 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 197,125,111,5,197,88,0,0 // vmovdqa 0x58c5(%rip),%ymm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,147,87,0,0 // vpbroadcastw 0x5793(%rip),%ymm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,121,13,215,88,0,0 // vpbroadcastw 0x58d7(%rip),%ymm9 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -53996,19 +53999,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 2d3e7 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2d4c0 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 2d3e3 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2d4bc <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 2d47e <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 2d47a <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 2d47e <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 2d47a <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 2d47e <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 2d47a <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -54016,12 +54019,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 2d47e <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 2d47a <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 2d47e <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 2d47a <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -54069,7 +54072,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f02d4c4 <_sk_srcover_rgba_8888_sse2_lowp+0x3effb298>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f02d4c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3effb298>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -54087,7 +54090,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 2d4e5 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 2d4e1 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -54120,13 +54123,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2d5b2 <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2d5ae <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 2d580 <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 2d57c <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -54145,10 +54148,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2d549 <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 2d545 <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2d5a9 <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 2d5a5 <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -54162,7 +54165,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2d53b <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 2d537 <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -54205,7 +54208,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,59,86,0,0 // movaps 0x563b(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,223,85,0,0 // movaps 0x55df(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -54216,7 +54219,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,39,86,0,0 // movaps 0x5627(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,5,203,85,0,0 // movaps 0x55cb(%rip),%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -54227,10 +54230,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,150,84,0,0 // movss 0x5496(%rip),%xmm2 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 243,15,16,21,202,78,0,0 // movss 0x4eca(%rip),%xmm2 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,85,84,0,0 // movss 0x5455(%rip),%xmm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 243,68,15,16,5,137,78,0,0 // movss 0x4e89(%rip),%xmm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -54257,7 +54260,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,153,85,0,0 // movdqa 0x5599(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,61,85,0,0 // movdqa 0x553d(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -54305,7 +54308,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,55,85,0,0 // movdqa 0x5537(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,219,84,0,0 // movdqa 0x54db(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54337,7 +54340,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,219,84,0,0 // movdqa 0x54db(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,29,127,84,0,0 // movdqa 0x547f(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -54369,7 +54372,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,91,84,0,0 // movdqa 0x545b(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,255,83,0,0 // movdqa 0x53ff(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -54398,7 +54401,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,230,83,0,0 // movdqa 0x53e6(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,138,83,0,0 // movdqa 0x538a(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -54419,7 +54422,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,157,83,0,0 // movdqa 0x539d(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,65,83,0,0 // movdqa 0x5341(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -54440,7 +54443,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,84,83,0,0 // movdqa 0x5354(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,248,82,0,0 // movdqa 0x52f8(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -54463,7 +54466,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,253,82,0,0 // movdqa 0x52fd(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,161,82,0,0 // movdqa 0x52a1(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -54488,7 +54491,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,163,82,0,0 // movdqa 0x52a3(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,71,82,0,0 // movdqa 0x5247(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54517,7 +54520,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,41,82,0,0 // movdqa 0x5229(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,205,81,0,0 // movdqa 0x51cd(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -54544,7 +54547,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,194,81,0,0 // movdqa 0x51c2(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,102,81,0,0 // movdqa 0x5166(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -54563,7 +54566,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,129,81,0,0 // movdqa 0x5181(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,37,81,0,0 // movdqa 0x5125(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54606,7 +54609,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,198,80,0,0 // movdqa 0x50c6(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,106,80,0,0 // movdqa 0x506a(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -54626,7 +54629,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,128,80,0,0 // movdqa 0x5080(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,36,80,0,0 // movdqa 0x5024(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54658,7 +54661,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,254,79,0,0 // movdqa 0x4ffe(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,162,79,0,0 // movdqa 0x4fa2(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -54701,7 +54704,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,69,79,0,0 // movdqa 0x4f45(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,233,78,0,0 // movdqa 0x4ee9(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54745,7 +54748,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,136,78,0,0 // movdqa 0x4e88(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,44,78,0,0 // movdqa 0x4e2c(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54789,10 +54792,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,203,77,0,0 // movdqa 0x4dcb(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,111,77,0,0 // movdqa 0x4d6f(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,40,85,0,0 // movdqa 0x5528(%rip),%xmm10 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,21,188,84,0,0 // movdqa 0x54bc(%rip),%xmm10 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1128>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -54834,10 +54837,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,7,77,0,0 // movdqa 0x4d07(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,171,76,0,0 // movdqa 0x4cab(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,100,84,0,0 // movdqa 0x5464(%rip),%xmm10 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,21,248,83,0,0 // movdqa 0x53f8(%rip),%xmm10 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1128>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -54873,14 +54876,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,98,76,0,0 // movdqa 0x4c62(%rip),%xmm11 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,29,6,76,0,0 // movdqa 0x4c06(%rip),%xmm11 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,187,83,0,0 // movdqa 0x53bb(%rip),%xmm9 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,68,15,111,13,79,83,0,0 // movdqa 0x534f(%rip),%xmm9 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -54927,7 +54930,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,83,75,0,0 // movdqa 0x4b53(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,247,74,0,0 // movdqa 0x4af7(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -54966,7 +54969,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,182,74,0,0 // movdqa 0x4ab6(%rip),%xmm11 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,29,90,74,0,0 // movdqa 0x4a5a(%rip),%xmm11 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -54978,7 +54981,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,247,81,0,0 // movdqa 0x51f7(%rip),%xmm9 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,68,15,111,13,139,81,0,0 // movdqa 0x518b(%rip),%xmm9 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -55024,7 +55027,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,153,73,0,0 // movdqa 0x4999(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,61,73,0,0 // movdqa 0x493d(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -55067,49 +55070,49 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e379 <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e375 <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 2e450 <_sk_load_8888_sse41_lowp+0x11b>
+ .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 2e44c <_sk_load_8888_sse41_lowp+0x11b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e3d2 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e3ce <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e3d2 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e3ce <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 2e3d2 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e3ce <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,6,80,0,0 // movdqa 0x5006(%rip),%xmm0 # 333e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,15,111,5,154,79,0,0 // movdqa 0x4f9a(%rip),%xmm0 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1148>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,86,72,0,0 // movdqa 0x4856(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,250,71,0,0 // movdqa 0x47fa(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,223,79,0,0 // movdqa 0x4fdf(%rip),%xmm10 # 333f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,21,115,79,0,0 // movdqa 0x4f73(%rip),%xmm10 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1158>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,204,79,0,0 // movdqa 0x4fcc(%rip),%xmm10 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,68,15,111,21,96,79,0,0 // movdqa 0x4f60(%rip),%xmm10 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1168>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -55125,7 +55128,7 @@ _sk_load_8888_sse41_lowp:
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2e45d <_sk_load_8888_sse41_lowp+0x128>
+ .byte 124,255 // jl 2e459 <_sk_load_8888_sse41_lowp+0x128>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -55148,49 +55151,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e4b0 <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e4ac <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e588 <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e584 <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e509 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e505 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e509 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e505 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 2e509 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e505 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,207,78,0,0 // movdqa 0x4ecf(%rip),%xmm4 # 333e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,15,111,37,99,78,0,0 // movdqa 0x4e63(%rip),%xmm4 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1148>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,31,71,0,0 // movdqa 0x471f(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,195,70,0,0 // movdqa 0x46c3(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,168,78,0,0 // movdqa 0x4ea8(%rip),%xmm10 # 333f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,21,60,78,0,0 // movdqa 0x4e3c(%rip),%xmm10 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1158>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,149,78,0,0 // movdqa 0x4e95(%rip),%xmm10 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,68,15,111,21,41,78,0,0 // movdqa 0x4e29(%rip),%xmm10 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1168>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -55206,7 +55209,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e595 <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e591 <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55243,20 +55246,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 2e62a <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 2e626 <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e670 <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e66c <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 2e669 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 2e665 <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2e669 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 2e665 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 2e669 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 2e665 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -55300,49 +55303,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e6d0 <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e6cc <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e7a8 <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e7a4 <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e729 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e725 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e729 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e725 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 2e729 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e725 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,175,76,0,0 // movdqa 0x4caf(%rip),%xmm2 # 333e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,15,111,21,67,76,0,0 // movdqa 0x4c43(%rip),%xmm2 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1148>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,255,68,0,0 // movdqa 0x44ff(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,163,68,0,0 // movdqa 0x44a3(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,136,76,0,0 // movdqa 0x4c88(%rip),%xmm10 # 333f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,21,28,76,0,0 // movdqa 0x4c1c(%rip),%xmm10 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1158>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,117,76,0,0 // movdqa 0x4c75(%rip),%xmm10 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,68,15,111,21,9,76,0,0 // movdqa 0x4c09(%rip),%xmm10 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1168>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -55358,7 +55361,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e7b5 <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e7b1 <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55380,49 +55383,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e808 <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e804 <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e8e0 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e8dc <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e861 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e85d <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e861 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e85d <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 2e861 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e85d <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,119,75,0,0 // movdqa 0x4b77(%rip),%xmm6 # 333e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,15,111,53,11,75,0,0 // movdqa 0x4b0b(%rip),%xmm6 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1148>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,199,67,0,0 // movdqa 0x43c7(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,107,67,0,0 // movdqa 0x436b(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,80,75,0,0 // movdqa 0x4b50(%rip),%xmm10 # 333f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,21,228,74,0,0 // movdqa 0x4ae4(%rip),%xmm10 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1158>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,61,75,0,0 // movdqa 0x4b3d(%rip),%xmm10 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,68,15,111,21,209,74,0,0 // movdqa 0x4ad1(%rip),%xmm10 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1168>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -55438,7 +55441,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e8ed <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e8e9 <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55475,20 +55478,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 2e982 <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 2e97e <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e9c8 <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e9c4 <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 2e9c1 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 2e9bd <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2e9c1 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 2e9bd <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 2e9c1 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 2e9bd <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -55532,23 +55535,23 @@ _sk_load_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ea20 <_sk_load_565_sse41_lowp+0x3c>
+ .byte 119,34 // ja 2ea1c <_sk_load_565_sse41_lowp+0x3c>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2ead0 <_sk_load_565_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2eacc <_sk_load_565_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,74 // jmp 2ea6a <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,74 // jmp 2ea66 <_sk_load_565_sse41_lowp+0x86>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,66 // jmp 2ea6a <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,66 // jmp 2ea66 <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,40 // jmp 2ea6a <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,40 // jmp 2ea66 <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
.byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
@@ -55557,11 +55560,11 @@ _sk_load_565_sse41_lowp:
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,149,73,0,0 // pand 0x4995(%rip),%xmm3 # 33410 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,15,219,29,41,73,0,0 // pand 0x4929(%rip),%xmm3 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1178>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,148,73,0,0 // pand 0x4994(%rip),%xmm1 # 33420 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
- .byte 102,15,111,21,156,73,0,0 // movdqa 0x499c(%rip),%xmm2 # 33430 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,15,219,13,40,73,0,0 // pand 0x4928(%rip),%xmm1 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1188>
+ .byte 102,15,111,21,48,73,0,0 // movdqa 0x4930(%rip),%xmm2 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1198>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -55574,7 +55577,7 @@ _sk_load_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,130,65,0,0 // movaps 0x4182(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,38,65,0,0 // movaps 0x4126(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -55585,7 +55588,7 @@ _sk_load_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2eae5 <_sk_load_565_sse41_lowp+0x101>
+ .byte 126,255 // jle 2eae1 <_sk_load_565_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55604,23 +55607,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2eb28 <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 2eb24 <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2ebd8 <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2ebd4 <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 2eb72 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 2eb6e <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 2eb72 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 2eb6e <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 2eb72 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 2eb6e <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -55629,11 +55632,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,141,72,0,0 // pand 0x488d(%rip),%xmm7 # 33410 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,15,219,61,33,72,0,0 // pand 0x4821(%rip),%xmm7 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1178>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,140,72,0,0 // pand 0x488c(%rip),%xmm5 # 33420 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
- .byte 102,15,111,53,148,72,0,0 // movdqa 0x4894(%rip),%xmm6 # 33430 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,15,219,45,32,72,0,0 // pand 0x4820(%rip),%xmm5 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1188>
+ .byte 102,15,111,53,40,72,0,0 // movdqa 0x4828(%rip),%xmm6 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1198>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -55646,7 +55649,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,122,64,0,0 // movaps 0x407a(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,61,30,64,0,0 // movaps 0x401e(%rip),%xmm7 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -55657,7 +55660,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2ebed <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 2ebe9 <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55674,10 +55677,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,40,72,0,0 // pand 0x4828(%rip),%xmm8 # 33440 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
+ .byte 102,68,15,219,5,188,71,0,0 // pand 0x47bc(%rip),%xmm8 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a8>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,36,72,0,0 // pand 0x4824(%rip),%xmm9 # 33450 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
+ .byte 102,68,15,219,13,184,71,0,0 // pand 0x47b8(%rip),%xmm9 # 333e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b8>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -55686,19 +55689,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 2ec68 <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 2ec64 <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 2eca8 <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 2eca4 <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 2eca2 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 2ec9e <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 2eca2 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 2ec9e <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 2eca2 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 2ec9e <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -55718,7 +55721,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 2ecb9 <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 2ecb5 <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -55740,18 +55743,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ecfd <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ecf9 <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ed78 <_sk_load_a8_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ed74 <_sk_load_a8_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 2ed61 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2ed5d <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 2ed61 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2ed5d <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -55759,7 +55762,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 2ed61 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2ed5d <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -55770,13 +55773,13 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,231,62,0,0 // pand 0x3ee7(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,29,139,62,0,0 // pand 0x3e8b(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 2ed79 <_sk_load_a8_sse41_lowp+0xb5>
+ .byte 122,255 // jp 2ed75 <_sk_load_a8_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -55807,18 +55810,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2edcd <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 2edc9 <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ee48 <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ee44 <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 2ee31 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2ee2d <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 2ee31 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2ee2d <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -55826,7 +55829,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 2ee31 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2ee2d <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -55837,13 +55840,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,23,62,0,0 // pand 0x3e17(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,61,187,61,0,0 // pand 0x3dbb(%rip),%xmm7 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 2ee49 <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 2ee45 <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -55874,28 +55877,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 2ee98 <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 2ee94 <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 2ef08 <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 2ef04 <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 2ef01 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 2eefd <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,9,69,0,0 // pshufb 0x4509(%rip),%xmm8 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,56,0,5,157,68,0,0 // pshufb 0x449d(%rip),%xmm8 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1118>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 2ef01 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 2eefd <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,153,61,0,0 // pshufb 0x3d99(%rip),%xmm8 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 102,68,15,56,0,5,61,61,0,0 // pshufb 0x3d3d(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 2ef01 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 2eefd <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,117,61,0,0 // pshufb 0x3d75(%rip),%xmm8 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
+ .byte 102,68,15,56,0,5,25,61,0,0 // pshufb 0x3d19(%rip),%xmm8 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -55931,18 +55934,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ef5d <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ef59 <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2efdc <_sk_load_g8_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2efd8 <_sk_load_g8_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 2efc1 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2efbd <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 2efc1 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2efbd <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -55950,7 +55953,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 2efc1 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2efbd <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -55961,13 +55964,13 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,135,60,0,0 // pand 0x3c87(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,5,43,60,0,0 // pand 0x3c2b(%rip),%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,126,60,0,0 // movaps 0x3c7e(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,34,60,0,0 // movaps 0x3c22(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 2efdd <_sk_load_g8_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 2efd9 <_sk_load_g8_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -55996,18 +55999,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2f031 <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 2f02d <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2f0b0 <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2f0ac <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 2f095 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2f091 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 2f095 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2f091 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -56015,7 +56018,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 2f095 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2f091 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -56026,13 +56029,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,179,59,0,0 // pand 0x3bb3(%rip),%xmm4 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,37,87,59,0,0 // pand 0x3b57(%rip),%xmm4 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,170,59,0,0 // movaps 0x3baa(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,61,78,59,0,0 // movaps 0x3b4e(%rip),%xmm7 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 2f0b1 <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 2f0ad <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -56054,10 +56057,10 @@ HIDDEN _sk_luminance_to_alpha_sse41_lowp
FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
_sk_luminance_to_alpha_sse41_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,136,67,0,0 // pmullw 0x4388(%rip),%xmm0 # 33460 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
- .byte 102,15,213,13,144,67,0,0 // pmullw 0x4390(%rip),%xmm1 # 33470 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
+ .byte 102,15,213,5,28,67,0,0 // pmullw 0x431c(%rip),%xmm0 # 333f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11c8>
+ .byte 102,15,213,13,36,67,0,0 // pmullw 0x4324(%rip),%xmm1 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x11d8>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,148,67,0,0 // pmullw 0x4394(%rip),%xmm3 # 33480 <_sk_srcover_rgba_8888_sse2_lowp+0x1254>
+ .byte 102,15,213,29,40,67,0,0 // pmullw 0x4328(%rip),%xmm3 # 33410 <_sk_srcover_rgba_8888_sse2_lowp+0x11e8>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -56072,14 +56075,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,191,57,0,0 // mulss 0x39bf(%rip),%xmm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 243,68,15,88,5,134,57,0,0 // addss 0x3986(%rip),%xmm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 243,68,15,89,5,243,51,0,0 // mulss 0x33f3(%rip),%xmm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,186,51,0,0 // addss 0x33ba(%rip),%xmm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,14,59,0,0 // movdqa 0x3b0e(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,178,58,0,0 // movdqa 0x3ab2(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56100,13 +56103,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,71,57,0,0 // mulss 0x3947(%rip),%xmm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 243,68,15,88,5,14,57,0,0 // addss 0x390e(%rip),%xmm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 243,68,15,89,5,123,51,0,0 // mulss 0x337b(%rip),%xmm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,66,51,0,0 // addss 0x3342(%rip),%xmm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,155,58,0,0 // movdqa 0x3a9b(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,63,58,0,0 // movdqa 0x3a3f(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56146,18 +56149,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 2f26c <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 2f268 <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 2f334 <_sk_scale_u8_sse41_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 2f330 <_sk_scale_u8_sse41_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 2f2db <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 2f2d7 <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 2f2db <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 2f2d7 <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -56165,7 +56168,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 2f2db <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 2f2d7 <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -56176,9 +56179,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,108,57,0,0 // pand 0x396c(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,219,5,16,57,0,0 // pand 0x3910(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,94,57,0,0 // movdqa 0x395e(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,2,57,0,0 // movdqa 0x3902(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56203,7 +56206,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2f349 <_sk_scale_u8_sse41_lowp+0x118>
+ .byte 124,255 // jl 2f345 <_sk_scale_u8_sse41_lowp+0x118>
.byte 255 // (bad)
.byte 255,107,255 // ljmp *-0x1(%rbx)
.byte 255 // (bad)
@@ -56221,18 +56224,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 2f38b <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 2f387 <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 2f494 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 2f490 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 2f3fa <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 2f3f6 <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 2f3fa <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 2f3f6 <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -56240,7 +56243,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 2f3fa <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 2f3f6 <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -56251,8 +56254,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,77,56,0,0 // pand 0x384d(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 102,68,15,111,21,68,56,0,0 // movdqa 0x3844(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,219,5,241,55,0,0 // pand 0x37f1(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 102,68,15,111,21,232,55,0,0 // movdqa 0x37e8(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -56282,7 +56285,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 2f494 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 2f490 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -56316,23 +56319,23 @@ _sk_scale_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 2f4f2 <_sk_scale_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 2f4ee <_sk_scale_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 2f64c <_sk_scale_565_sse41_lowp+0x19c>
+ .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 2f648 <_sk_scale_565_sse41_lowp+0x19c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 2f53e <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 2f53a <_sk_scale_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 2f53e <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 2f53a <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 2f53e <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 2f53a <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -56341,11 +56344,11 @@ _sk_scale_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,192,62,0,0 // pand 0x3ec0(%rip),%xmm0 # 33410 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,15,219,5,84,62,0,0 // pand 0x3e54(%rip),%xmm0 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1178>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,188,62,0,0 // pand 0x3ebc(%rip),%xmm10 # 33420 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
- .byte 102,68,15,111,29,195,62,0,0 // movdqa 0x3ec3(%rip),%xmm11 # 33430 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,68,15,219,21,80,62,0,0 // pand 0x3e50(%rip),%xmm10 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1188>
+ .byte 102,68,15,111,29,87,62,0,0 // movdqa 0x3e57(%rip),%xmm11 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1198>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -56357,7 +56360,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,33,62,0,0 // movdqa 0x3e21(%rip),%xmm0 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,5,181,61,0,0 // movdqa 0x3db5(%rip),%xmm0 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -56370,7 +56373,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
.byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,15,111,5,89,54,0,0 // movdqa 0x3659(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,5,253,53,0,0 // movdqa 0x35fd(%rip),%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
.byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
@@ -56424,23 +56427,23 @@ _sk_lerp_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 2f6aa <_sk_lerp_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 2f6a6 <_sk_lerp_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 2f850 <_sk_lerp_565_sse41_lowp+0x1e8>
+ .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 2f84c <_sk_lerp_565_sse41_lowp+0x1e8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 2f6f6 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 2f6f2 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 2f6f6 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 2f6f2 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 2f6f6 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 2f6f2 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -56449,11 +56452,11 @@ _sk_lerp_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,8,61,0,0 // pand 0x3d08(%rip),%xmm0 # 33410 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,15,219,5,156,60,0,0 // pand 0x3c9c(%rip),%xmm0 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1178>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,4,61,0,0 // pand 0x3d04(%rip),%xmm10 # 33420 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
- .byte 102,68,15,111,29,11,61,0,0 // movdqa 0x3d0b(%rip),%xmm11 # 33430 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,68,15,219,21,152,60,0,0 // pand 0x3c98(%rip),%xmm10 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1188>
+ .byte 102,68,15,111,29,159,60,0,0 // movdqa 0x3c9f(%rip),%xmm11 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1198>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -56465,7 +56468,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,105,60,0,0 // movdqa 0x3c69(%rip),%xmm0 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,5,253,59,0,0 // movdqa 0x3bfd(%rip),%xmm0 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -56477,7 +56480,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,68,15,111,45,165,52,0,0 // movdqa 0x34a5(%rip),%xmm13 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,45,73,52,0,0 // movdqa 0x3449(%rip),%xmm13 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,239,197 // pxor %xmm13,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -56541,48 +56544,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 2f8b7 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 2f8b3 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 2fab4 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 2fab0 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2f910 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 2f90c <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2f910 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 2f90c <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 2f910 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 2f90c <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,200,58,0,0 // movdqa 0x3ac8(%rip),%xmm4 # 333e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,15,111,37,92,58,0,0 // movdqa 0x3a5c(%rip),%xmm4 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1148>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,24,51,0,0 // movdqa 0x3318(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,37,188,50,0,0 // movdqa 0x32bc(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,161,58,0,0 // movdqa 0x3aa1(%rip),%xmm9 # 333f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,13,53,58,0,0 // movdqa 0x3a35(%rip),%xmm9 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1158>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,142,58,0,0 // movdqa 0x3a8e(%rip),%xmm9 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,68,15,111,13,34,58,0,0 // movdqa 0x3a22(%rip),%xmm9 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1168>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -56624,19 +56627,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 2fa5a <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 2fad0 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 2fa56 <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 2facc <_sk_srcover_rgba_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 2fa99 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 2fa95 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2fa99 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 2fa95 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 2fa99 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 2fa95 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -56701,13 +56704,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2fba2 <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2fb9e <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 2fb70 <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 2fb6c <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -56726,10 +56729,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2fb39 <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 2fb35 <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2fb99 <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 2fb95 <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -56743,7 +56746,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2fb2b <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 2fb27 <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -56786,7 +56789,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,75,48,0,0 // movaps 0x304b(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,239,47,0,0 // movaps 0x2fef(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -56797,7 +56800,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,55,48,0,0 // movaps 0x3037(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,5,219,47,0,0 // movaps 0x2fdb(%rip),%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -56808,10 +56811,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,166,46,0,0 // movss 0x2ea6(%rip),%xmm2 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 243,15,16,21,218,40,0,0 // movss 0x28da(%rip),%xmm2 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,101,46,0,0 // movss 0x2e65(%rip),%xmm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 243,68,15,16,5,153,40,0,0 // movss 0x2899(%rip),%xmm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -56838,7 +56841,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,169,47,0,0 // movdqa 0x2fa9(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,77,47,0,0 // movdqa 0x2f4d(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -56886,7 +56889,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,71,47,0,0 // movdqa 0x2f47(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,235,46,0,0 // movdqa 0x2eeb(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -56918,7 +56921,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,235,46,0,0 // movdqa 0x2eeb(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,29,143,46,0,0 // movdqa 0x2e8f(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -56950,7 +56953,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,107,46,0,0 // movdqa 0x2e6b(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,15,46,0,0 // movdqa 0x2e0f(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -56979,7 +56982,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,246,45,0,0 // movdqa 0x2df6(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,154,45,0,0 // movdqa 0x2d9a(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -57000,7 +57003,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,173,45,0,0 // movdqa 0x2dad(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,81,45,0,0 // movdqa 0x2d51(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -57021,7 +57024,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,100,45,0,0 // movdqa 0x2d64(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,8,45,0,0 // movdqa 0x2d08(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -57044,7 +57047,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,13,45,0,0 // movdqa 0x2d0d(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,177,44,0,0 // movdqa 0x2cb1(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -57069,7 +57072,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,179,44,0,0 // movdqa 0x2cb3(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,87,44,0,0 // movdqa 0x2c57(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -57098,7 +57101,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,57,44,0,0 // movdqa 0x2c39(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,221,43,0,0 // movdqa 0x2bdd(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -57125,7 +57128,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,210,43,0,0 // movdqa 0x2bd2(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,118,43,0,0 // movdqa 0x2b76(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -57144,7 +57147,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,145,43,0,0 // movdqa 0x2b91(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,53,43,0,0 // movdqa 0x2b35(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -57189,12 +57192,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,13,51,0,0 // movdqa 0x330d(%rip),%xmm10 # 33490 <_sk_srcover_rgba_8888_sse2_lowp+0x1264>
+ .byte 102,68,15,111,21,161,50,0,0 // movdqa 0x32a1(%rip),%xmm10 # 33420 <_sk_srcover_rgba_8888_sse2_lowp+0x11f8>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,177,42,0,0 // movdqa 0x2ab1(%rip),%xmm11 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,29,85,42,0,0 // movdqa 0x2a55(%rip),%xmm11 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -57233,7 +57236,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,17,42,0,0 // movdqa 0x2a11(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,181,41,0,0 // movdqa 0x29b5(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -57265,7 +57268,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,143,41,0,0 // movdqa 0x298f(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,51,41,0,0 // movdqa 0x2933(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -57307,7 +57310,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,90,48,0,0 // movdqa 0x305a(%rip),%xmm9 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,68,15,111,13,238,47,0,0 // movdqa 0x2fee(%rip),%xmm9 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -57316,7 +57319,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,169,40,0,0 // movdqa 0x28a9(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,77,40,0,0 // movdqa 0x284d(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -57372,7 +57375,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,49,47,0,0 // movdqa 0x2f31(%rip),%xmm9 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,68,15,111,13,197,46,0,0 // movdqa 0x2ec5(%rip),%xmm9 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -57381,7 +57384,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,128,39,0,0 // movdqa 0x2780(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,36,39,0,0 // movdqa 0x2724(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -57437,7 +57440,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,8,46,0,0 // movdqa 0x2e08(%rip),%xmm9 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,68,15,111,13,156,45,0,0 // movdqa 0x2d9c(%rip),%xmm9 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -57446,10 +57449,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,87,38,0,0 // movdqa 0x2657(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,251,37,0,0 // movdqa 0x25fb(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,180,45,0,0 // movdqa 0x2db4(%rip),%xmm11 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,29,72,45,0,0 // movdqa 0x2d48(%rip),%xmm11 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1128>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -57504,10 +57507,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,84,37,0,0 // movdqa 0x2554(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,248,36,0,0 // movdqa 0x24f8(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,177,44,0,0 // movdqa 0x2cb1(%rip),%xmm10 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,21,69,44,0,0 // movdqa 0x2c45(%rip),%xmm10 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1128>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -57543,7 +57546,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,176,36,0,0 // movdqa 0x24b0(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,21,84,36,0,0 // movdqa 0x2454(%rip),%xmm2 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -57556,7 +57559,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,236,43,0,0 // movdqa 0x2bec(%rip),%xmm2 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,21,128,43,0,0 // movdqa 0x2b80(%rip),%xmm2 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -57575,7 +57578,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,15,36,0,0 // paddw 0x240f(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,253,5,179,35,0,0 // paddw 0x23b3(%rip),%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -57598,7 +57601,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,154,35,0,0 // paddw 0x239a(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,253,13,62,35,0,0 // paddw 0x233e(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -57620,7 +57623,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,42,35,0,0 // movdqa 0x232a(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,206,34,0,0 // movdqa 0x22ce(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -57648,7 +57651,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,187,34,0,0 // movdqa 0x22bb(%rip),%xmm6 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,53,95,34,0,0 // movdqa 0x225f(%rip),%xmm6 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -57670,7 +57673,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,207,41,0,0 // movdqa 0x29cf(%rip),%xmm1 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,13,99,41,0,0 // movdqa 0x2963(%rip),%xmm1 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -57697,7 +57700,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,78,41,0,0 // movdqa 0x294e(%rip),%xmm7 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,61,226,40,0,0 // movdqa 0x28e2(%rip),%xmm7 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -57757,27 +57760,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30b98 <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 30b94 <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30c94 <_sk_load_8888_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30c90 <_sk_load_8888_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 30bfe <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30bfa <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 30bfe <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30bfa <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 30bfe <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30bfa <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -57794,7 +57797,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,40,32,0,0 // movdqa 0x2028(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,204,31,0,0 // movdqa 0x1fcc(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -57847,27 +57850,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30cf4 <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 30cf0 <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30df0 <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30dec <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 30d5a <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30d56 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 30d5a <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30d56 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 30d5a <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30d56 <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -57884,7 +57887,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,204,30,0,0 // movdqa 0x1ecc(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,112,30,0,0 // movdqa 0x1e70(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -57952,21 +57955,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 30e8f <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 30e8b <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 30ee0 <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 30edc <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 30eda <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 30ed6 <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 30eda <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 30ed6 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 30eda <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 30ed6 <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -58011,27 +58014,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30f40 <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 30f3c <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 3103c <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 31038 <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 30fa6 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30fa2 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 30fa6 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30fa2 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 30fa6 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30fa2 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -58048,7 +58051,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,128,28,0,0 // movdqa 0x1c80(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,36,28,0,0 // movdqa 0x1c24(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -58101,27 +58104,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 3109c <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 31098 <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 31198 <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 31194 <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 31102 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 310fe <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 31102 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 310fe <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 31102 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 310fe <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -58138,7 +58141,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,36,27,0,0 // movdqa 0x1b24(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,200,26,0,0 // movdqa 0x1ac8(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -58206,21 +58209,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 31237 <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 31233 <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 31288 <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 31284 <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 31282 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 3127e <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 31282 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 3127e <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 31282 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 3127e <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -58265,23 +58268,23 @@ _sk_load_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 312e0 <_sk_load_565_sse2_lowp+0x3c>
+ .byte 119,34 // ja 312dc <_sk_load_565_sse2_lowp+0x3c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 31388 <_sk_load_565_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 31384 <_sk_load_565_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,66 // jmp 31322 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 3131e <_sk_load_565_sse2_lowp+0x7e>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,58 // jmp 31322 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 3131e <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,34 // jmp 31322 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 3131e <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -58289,11 +58292,11 @@ _sk_load_565_sse2_lowp:
.byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,221,32,0,0 // pand 0x20dd(%rip),%xmm3 # 33410 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,15,219,29,113,32,0,0 // pand 0x2071(%rip),%xmm3 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1178>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,220,32,0,0 // pand 0x20dc(%rip),%xmm1 # 33420 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
- .byte 102,15,111,21,228,32,0,0 // movdqa 0x20e4(%rip),%xmm2 # 33430 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,15,219,13,112,32,0,0 // pand 0x2070(%rip),%xmm1 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1188>
+ .byte 102,15,111,21,120,32,0,0 // movdqa 0x2078(%rip),%xmm2 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1198>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -58306,7 +58309,7 @@ _sk_load_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,202,24,0,0 // movaps 0x18ca(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,110,24,0,0 // movaps 0x186e(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -58332,23 +58335,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 313e0 <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 313dc <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 31488 <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 31484 <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 31422 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 3141e <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 31422 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 3141e <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 31422 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 3141e <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -58356,11 +58359,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,221,31,0,0 // pand 0x1fdd(%rip),%xmm7 # 33410 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,15,219,61,113,31,0,0 // pand 0x1f71(%rip),%xmm7 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1178>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,220,31,0,0 // pand 0x1fdc(%rip),%xmm5 # 33420 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
- .byte 102,15,111,53,228,31,0,0 // movdqa 0x1fe4(%rip),%xmm6 # 33430 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,15,219,45,112,31,0,0 // pand 0x1f70(%rip),%xmm5 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1188>
+ .byte 102,15,111,53,120,31,0,0 // movdqa 0x1f78(%rip),%xmm6 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1198>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -58373,7 +58376,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,202,23,0,0 // movaps 0x17ca(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,61,110,23,0,0 // movaps 0x176e(%rip),%xmm7 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -58397,10 +58400,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,120,31,0,0 // pand 0x1f78(%rip),%xmm8 # 33440 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
+ .byte 102,68,15,219,5,12,31,0,0 // pand 0x1f0c(%rip),%xmm8 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a8>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,116,31,0,0 // pand 0x1f74(%rip),%xmm9 # 33450 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
+ .byte 102,68,15,219,13,8,31,0,0 // pand 0x1f08(%rip),%xmm9 # 333e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b8>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -58409,21 +58412,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 3151a <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 31516 <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 31564 <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 31560 <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 31560 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 3155c <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 31560 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 3155c <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 31560 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 3155c <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -58467,19 +58470,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 315b9 <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 315b5 <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 31630 <_sk_load_a8_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 3162c <_sk_load_a8_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 3161a <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 31616 <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 3161a <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 31616 <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -58487,7 +58490,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 3161a <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 31616 <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -58498,14 +58501,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,46,22,0,0 // pand 0x162e(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,29,210,21,0,0 // pand 0x15d2(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 31631 <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 126,255 // jle 3162d <_sk_load_a8_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58535,19 +58538,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31685 <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 31681 <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 316fc <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 316f8 <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 316e6 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 316e2 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 316e6 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 316e2 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -58555,7 +58558,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 316e6 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 316e2 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -58566,14 +58569,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,98,21,0,0 // pand 0x1562(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,61,6,21,0,0 // pand 0x1506(%rip),%xmm7 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 316fd <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 316f9 <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58603,42 +58606,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 3174c <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 31748 <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 317cc <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 317c8 <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 317c7 <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,251,20,0,0 // movdqa 0x14fb(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 235,123 // jmp 317c3 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,159,20,0,0 // movdqa 0x149f(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 317c7 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 317c3 <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,214,20,0,0 // movdqa 0x14d6(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,122,20,0,0 // movdqa 0x147a(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 317c7 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 317c3 <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,153,20,0,0 // movdqa 0x1499(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,61,20,0,0 // movdqa 0x143d(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 317cd <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 317c9 <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -58669,19 +58672,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31821 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 3181d <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 318a0 <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3189c <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 31882 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 3187e <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 31882 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 3187e <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -58689,7 +58692,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 31882 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 3187e <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -58700,14 +58703,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,198,19,0,0 // pand 0x13c6(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,5,106,19,0,0 // pand 0x136a(%rip),%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,189,19,0,0 // movaps 0x13bd(%rip),%xmm3 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,97,19,0,0 // movaps 0x1361(%rip),%xmm3 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 318a1 <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 3189d <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58735,19 +58738,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 318f5 <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 318f1 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 31974 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 31970 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 31956 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 31952 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 31956 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 31952 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -58755,7 +58758,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 31956 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 31952 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -58766,14 +58769,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,242,18,0,0 // pand 0x12f2(%rip),%xmm4 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,37,150,18,0,0 // pand 0x1296(%rip),%xmm4 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,233,18,0,0 // movaps 0x12e9(%rip),%xmm7 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,61,141,18,0,0 // movaps 0x128d(%rip),%xmm7 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 31975 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 31971 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58794,10 +58797,10 @@ HIDDEN _sk_luminance_to_alpha_sse2_lowp
FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
_sk_luminance_to_alpha_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,196,26,0,0 // pmullw 0x1ac4(%rip),%xmm0 # 33460 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
- .byte 102,15,213,13,204,26,0,0 // pmullw 0x1acc(%rip),%xmm1 # 33470 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
+ .byte 102,15,213,5,88,26,0,0 // pmullw 0x1a58(%rip),%xmm0 # 333f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11c8>
+ .byte 102,15,213,13,96,26,0,0 // pmullw 0x1a60(%rip),%xmm1 # 33400 <_sk_srcover_rgba_8888_sse2_lowp+0x11d8>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,208,26,0,0 // pmullw 0x1ad0(%rip),%xmm3 # 33480 <_sk_srcover_rgba_8888_sse2_lowp+0x1254>
+ .byte 102,15,213,29,100,26,0,0 // pmullw 0x1a64(%rip),%xmm3 # 33410 <_sk_srcover_rgba_8888_sse2_lowp+0x11e8>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -58812,14 +58815,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,251,16,0,0 // mulss 0x10fb(%rip),%xmm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 243,68,15,88,5,194,16,0,0 // addss 0x10c2(%rip),%xmm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 243,68,15,89,5,47,11,0,0 // mulss 0xb2f(%rip),%xmm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,246,10,0,0 // addss 0xaf6(%rip),%xmm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,74,18,0,0 // movdqa 0x124a(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,238,17,0,0 // movdqa 0x11ee(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -58840,13 +58843,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,131,16,0,0 // mulss 0x1083(%rip),%xmm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
- .byte 243,68,15,88,5,74,16,0,0 // addss 0x104a(%rip),%xmm8 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 243,68,15,89,5,183,10,0,0 // mulss 0xab7(%rip),%xmm8 # 32504 <_sk_srcover_rgba_8888_sse2_lowp+0x2dc>
+ .byte 243,68,15,88,5,126,10,0,0 // addss 0xa7e(%rip),%xmm8 # 324d4 <_sk_srcover_rgba_8888_sse2_lowp+0x2ac>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,215,17,0,0 // movdqa 0x11d7(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,123,17,0,0 // movdqa 0x117b(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -58886,19 +58889,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 31b30 <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 31b2c <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 31bf8 <_sk_scale_u8_sse2_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 31bf4 <_sk_scale_u8_sse2_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 31b9d <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 31b99 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 31b9d <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 31b99 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -58906,7 +58909,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 31b9d <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 31b99 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -58917,9 +58920,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,170,16,0,0 // pand 0x10aa(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,219,5,78,16,0,0 // pand 0x104e(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,156,16,0,0 // movdqa 0x109c(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,64,16,0,0 // movdqa 0x1040(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -58945,7 +58948,7 @@ _sk_scale_u8_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 31c0d <_sk_scale_u8_sse2_lowp+0x118>
+ .byte 125,255 // jge 31c09 <_sk_scale_u8_sse2_lowp+0x118>
.byte 255 // (bad)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
.byte 255 // .byte 0xff
@@ -58962,19 +58965,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 31c4f <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 31c4b <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 31d58 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 31d54 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 31cbc <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 31cb8 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 31cbc <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 31cb8 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -58982,7 +58985,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 31cbc <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 31cb8 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -58993,8 +58996,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,139,15,0,0 // pand 0xf8b(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 102,68,15,111,21,130,15,0,0 // movdqa 0xf82(%rip),%xmm10 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,219,5,47,15,0,0 // pand 0xf2f(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 102,68,15,111,21,38,15,0,0 // movdqa 0xf26(%rip),%xmm10 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -59024,9 +59027,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 31d58 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 31d54 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5031d60 <_sk_srcover_rgba_8888_sse2_lowp+0x4fffb34>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5031d5c <_sk_srcover_rgba_8888_sse2_lowp+0x4fffb34>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -59056,23 +59059,23 @@ _sk_scale_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31dbf <_sk_scale_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 31dbb <_sk_scale_565_sse2_lowp+0x4b>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 31f90 <_sk_scale_565_sse2_lowp+0x21c>
+ .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 31f8c <_sk_scale_565_sse2_lowp+0x21c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 235,67 // jmp 31e02 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 31dfe <_sk_scale_565_sse2_lowp+0x8e>
.byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6
- .byte 235,59 // jmp 31e02 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 31dfe <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,241 // movss %xmm9,%xmm6
- .byte 235,34 // jmp 31e02 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 31dfe <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
.byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
@@ -59080,11 +59083,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,250,21,0,0 // pand 0x15fa(%rip),%xmm11 # 33410 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,68,15,219,29,142,21,0,0 // pand 0x158e(%rip),%xmm11 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1178>
.byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,246,21,0,0 // pand 0x15f6(%rip),%xmm9 # 33420 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
- .byte 102,68,15,111,21,253,21,0,0 // movdqa 0x15fd(%rip),%xmm10 # 33430 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,68,15,219,13,138,21,0,0 // pand 0x158a(%rip),%xmm9 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1188>
+ .byte 102,68,15,111,21,145,21,0,0 // movdqa 0x1591(%rip),%xmm10 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1198>
.byte 102,68,15,219,214 // pand %xmm6,%xmm10
.byte 102,15,113,214,13 // psrlw $0xd,%xmm6
.byte 102,65,15,235,243 // por %xmm11,%xmm6
@@ -59096,7 +59099,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,89,21,0,0 // movdqa 0x1559(%rip),%xmm12 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,68,15,111,37,237,20,0,0 // movdqa 0x14ed(%rip),%xmm12 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -59137,7 +59140,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
.byte 102,68,15,213,210 // pmullw %xmm2,%xmm10
.byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,15,111,5,11,13,0,0 // movdqa 0xd0b(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,5,175,12,0,0 // movdqa 0xcaf(%rip),%xmm0 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,253,240 // paddw %xmm0,%xmm6
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,68,15,253,208 // paddw %xmm0,%xmm10
@@ -59184,23 +59187,23 @@ _sk_lerp_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31ff7 <_sk_lerp_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 31ff3 <_sk_lerp_565_sse2_lowp+0x4b>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 32210 <_sk_lerp_565_sse2_lowp+0x264>
+ .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 3220c <_sk_lerp_565_sse2_lowp+0x264>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,67 // jmp 3203a <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 32036 <_sk_lerp_565_sse2_lowp+0x8e>
.byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2
- .byte 235,59 // jmp 3203a <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 32036 <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,209 // movss %xmm9,%xmm2
- .byte 235,34 // jmp 3203a <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 32036 <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
.byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
@@ -59208,11 +59211,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2
.byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,194,19,0,0 // pand 0x13c2(%rip),%xmm11 # 33410 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,68,15,219,29,86,19,0,0 // pand 0x1356(%rip),%xmm11 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1178>
.byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,190,19,0,0 // pand 0x13be(%rip),%xmm9 # 33420 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
- .byte 102,68,15,111,21,197,19,0,0 // movdqa 0x13c5(%rip),%xmm10 # 33430 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,68,15,219,13,82,19,0,0 // pand 0x1352(%rip),%xmm9 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1188>
+ .byte 102,68,15,111,21,89,19,0,0 // movdqa 0x1359(%rip),%xmm10 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1198>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,15,113,210,13 // psrlw $0xd,%xmm2
.byte 102,65,15,235,211 // por %xmm11,%xmm2
@@ -59224,7 +59227,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,33,19,0,0 // movdqa 0x1321(%rip),%xmm12 # 333d0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,68,15,111,37,181,18,0,0 // movdqa 0x12b5(%rip),%xmm12 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1138>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -59263,7 +59266,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,69,15,235,222 // por %xmm14,%xmm11
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,68,15,111,5,221,10,0,0 // movdqa 0xadd(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,129,10,0,0 // movdqa 0xa81(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,65,15,239,192 // pxor %xmm8,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
@@ -59332,26 +59335,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 32277 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 32273 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 324a0 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3249c <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 322dd <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 322d9 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 322dd <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 322d9 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 322dd <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 322d9 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -59368,7 +59371,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,73,9,0,0 // movdqa 0x949(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,37,237,8,0,0 // movdqa 0x8ed(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -59426,20 +59429,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3243f <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 324bc <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 3243b <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 324b8 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 32488 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 32484 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 32488 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 32484 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 32488 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 32484 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -59472,7 +59475,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 324bd <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 324b9 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -59490,51 +59493,173 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255 // (bad)
.byte 255 // .byte 0xff
-BALIGN32
+BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 192,63,0 // sarb $0x0,(%rdi)
- .byte 0,32 // add %ah,(%rax)
- .byte 64,0,0 // add %al,(%rax)
- .byte 96 // (bad)
- .byte 64,0,0 // add %al,(%rax)
- .byte 144 // nop
- .byte 64,0,0 // add %al,(%rax)
- .byte 176,64 // mov $0x40,%al
+ .byte 128,63,1 // cmpb $0x1,(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 208,64,0 // rolb 0x0(%rax)
- .byte 0,240 // add %dh,%al
+ .byte 0,4,0 // add %al,(%rax,%rax,1)
+ .byte 0,0 // add %al,(%rax)
+ .byte 2,0 // add (%rax),%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1)
+ .byte 252 // cld
+ .byte 190,0,0,128,191 // mov $0xbf800000,%esi
+ .byte 0,0 // add %al,(%rax)
+ .byte 224,64 // loopne 32538 <.literal4+0x64>
+ .byte 154 // (bad)
+ .byte 153 // cltd
+ .byte 153 // cltd
+ .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
+ .byte 71,225,61 // rex.RXB loope 32541 <.literal4+0x6d>
+ .byte 0,0 // add %al,(%rax)
+ .byte 127,67 // jg 3254b <.literal4+0x77>
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
+ .byte 158 // sahf
+ .byte 61,92,143,50,63 // cmp $0x3f328f5c,%eax
+ .byte 10,215 // or %bh,%dl
+ .byte 35,59 // and (%rbx),%edi
+ .byte 174 // scas %es:(%rdi),%al
+ .byte 71,97 // rex.RXB (bad)
+ .byte 61,82,184,78,65 // cmp $0x414eb852,%eax
+ .byte 186,159,98,60,57 // mov $0x393c629f,%edx
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 32,187,180,164,144,63 // and %bh,0x3f90a4b4(%rbx)
+ .byte 252 // cld
+ .byte 199 // (bad)
+ .byte 16,62 // adc %bh,(%rsi)
+ .byte 168,177 // test $0xb1,%al
+ .byte 152 // cwtl
+ .byte 59,0 // cmp (%rax),%eax
+ .byte 0,192 // add %al,%al
.byte 64,0,0 // add %al,(%rax)
+ .byte 0,64,0 // add %al,0x0(%rax)
+ .byte 0,128,64,171,170,42 // add %al,0x2aaaab40(%rax)
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 62,171 // ds stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 42,63 // sub (%rdi),%bh
+ .byte 171 // stos %eax,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 170 // stos %al,%es:(%rdi)
+ .byte 190,129,128,128,59 // mov $0x3b808081,%esi
+ .byte 0,248 // add %bh,%al
.byte 0,0 // add %al,(%rax)
- .byte 1,0 // add %eax,(%rax)
+ .byte 8,33 // or %ah,(%rcx)
+ .byte 132,55 // test %dh,(%rdi)
+ .byte 224,7 // loopne 32565 <.literal4+0x91>
.byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
+ .byte 33,8 // and %ecx,(%rax)
+ .byte 2,58 // add (%rdx),%bh
+ .byte 31 // (bad)
.byte 0,0 // add %al,(%rax)
- .byte 3,0 // add (%rax),%eax
+ .byte 0,8 // add %cl,(%rax)
+ .byte 33,4,61,128,0,128,55 // and %eax,0x37800080(,%rdi,1)
.byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
+ .byte 0,52,255 // add %dh,(%rdi,%rdi,8)
+ .byte 255 // (bad)
+ .byte 127,0 // jg 32578 <.literal4+0xa4>
+ .byte 119,115 // ja 325ed <.literal4+0x119>
+ .byte 248 // clc
+ .byte 194,117,191 // retq $0xbf75
+ .byte 191,63,249,68,180 // mov $0xb444f93f,%edi
+ .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9
+ .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp
+ .byte 154 // (bad)
+ .byte 64,254 // rex (bad)
+ .byte 210,221 // rcr %cl,%ch
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 0,75,0 // add %cl,0x0(%rbx)
+ .byte 0,200 // add %cl,%al
+ .byte 66,0,0 // rex.X add %al,(%rax)
+ .byte 0,195 // add %al,%bl
.byte 0,0 // add %al,(%rax)
- .byte 5,0,0,0,6 // add $0x6000000,%eax
+ .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx)
+ .byte 13,60,111,18,3 // or $0x3126f3c,%eax
+ .byte 59,10 // cmp (%rdx),%ecx
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 163,59,194,24,17,60,203,61,13 // movabs %eax,0xd3dcb3c1118c23b
+ .byte 190,80,128,3,62 // mov $0x3e038050,%esi
+ .byte 31 // (bad)
+ .byte 215 // xlat %ds:(%rbx)
+ .byte 118,63 // jbe 32603 <.literal4+0x12f>
+ .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,7 // add %al,(%rdi)
+ .byte 248 // clc
+ .byte 65,0,0 // add %al,(%r8)
+ .byte 124,66 // jl 32612 <.literal4+0x13e>
+ .byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
+ .byte 112,65 // jo 32635 <.literal4+0x161>
+ .byte 0,255 // add %bh,%bh
+ .byte 127,71 // jg 3263f <.literal4+0x16b>
+ .byte 89 // pop %rcx
+ .byte 23 // (bad)
+ .byte 55 // (bad)
.byte 63 // (bad)
+ .byte 208 // (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,152 // ds cwtl
+ .byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
+ .byte 192,18,120 // rclb $0x78,(%rdx)
+ .byte 57,64,32 // cmp %eax,0x20(%rax)
+ .byte 148 // xchg %eax,%esp
+ .byte 90 // pop %rdx
+ .byte 62,4,157 // ds add $0x9d,%al
+ .byte 30 // (bad)
+ .byte 62,0,24 // add %bl,%ds:(%rax)
+ .byte 161,57,111,43,231,187,159,215,202 // movabs 0xcad79fbbe72b6f39,%eax
+ .byte 60,212 // cmp $0xd4,%al
+ .byte 100,84 // fs push %rsp
+ .byte 189,169,240,34,62 // mov $0x3e22f0a9,%ebp
.byte 0,0 // add %al,(%rax)
- .byte 192,63,0 // sarb $0x0,(%rdi)
- .byte 0,32 // add %ah,(%rax)
- .byte 64,0,0 // add %al,(%rax)
- .byte 96 // (bad)
- .byte 64,0,0 // add %al,(%rax)
+ .byte 128,62,0 // cmpb $0x0,(%rsi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,0,0 // rolb $0x0,(%rax)
+ .byte 128,192,0 // add $0x0,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 128,0,0 // addb $0x0,(%rax)
+ .byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
+ .byte 114,28 // jb 3265e <.literal4+0x18a>
+ .byte 199 // (bad)
+ .byte 62,85 // ds push %rbp
+ .byte 85 // push %rbp
+ .byte 149 // xchg %eax,%ebp
+ .byte 191,0,0,192,63 // mov $0x3fc00000,%edi
+ .byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
+ .byte 127,63 // jg 32693 <_sk_srcover_rgba_8888_sse2_lowp+0x46b>
+ .byte 3,0 // add (%rax),%eax
+ .byte 0,0 // add %al,(%rax)
+ .byte 109 // insl (%dx),%es:(%rdi)
+ .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 144 // nop
- .byte 64,0,0 // add %al,(%rax)
- .byte 176,64 // mov $0x40,%al
+ .byte 63 // (bad)
+ .byte 252 // cld
+ .byte 191,16,62,0,4 // mov $0x4003e10,%edi
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,56 // add %bh,(%rax)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 127,0 // jg 3266d <.literal4+0x199>
+ .byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
+ .byte 255 // .byte 0xff
+
+BALIGN32
.byte 0,0 // add %al,(%rax)
- .byte 208,64,0 // rolb 0x0(%rax)
- .byte 0,240 // add %dh,%al
- .byte 64,0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 1,0 // add %eax,(%rax)
.byte 0,0 // add %al,(%rax)
@@ -59548,6 +59673,20 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 0,7 // add %al,(%rdi)
.byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,1 // add %al,(%rcx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,2 // add %al,(%rdx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,3 // add %al,(%rbx)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,4,0 // add %al,(%rax,%rax,1)
+ .byte 0,0 // add %al,(%rax)
+ .byte 5,0,0,0,6 // add $0x6000000,%eax
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,7 // add %al,(%rdi)
+ .byte 0,0 // add %al,(%rax)
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 0,255 // add %bh,%bh
@@ -59567,16 +59706,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032588 <_sk_srcover_rgba_8888_sse2_lowp+0xa00035c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0326e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004c0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032590 <_sk_srcover_rgba_8888_sse2_lowp+0x12000364>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120326f0 <_sk_srcover_rgba_8888_sse2_lowp+0x120004c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032598 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00036c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0326f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004d0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000374>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032700 <_sk_srcover_rgba_8888_sse2_lowp+0x30004d8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59619,16 +59758,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0325e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003bc>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032748 <_sk_srcover_rgba_8888_sse2_lowp+0xa000520>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120325f0 <_sk_srcover_rgba_8888_sse2_lowp+0x120003c4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032750 <_sk_srcover_rgba_8888_sse2_lowp+0x12000528>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0325f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003cc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032758 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000530>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032600 <_sk_srcover_rgba_8888_sse2_lowp+0x30003d4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032760 <_sk_srcover_rgba_8888_sse2_lowp+0x3000538>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59671,16 +59810,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032648 <_sk_srcover_rgba_8888_sse2_lowp+0xa00041c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0327a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000580>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032650 <_sk_srcover_rgba_8888_sse2_lowp+0x12000424>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120327b0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032658 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00042c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0327b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000590>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032660 <_sk_srcover_rgba_8888_sse2_lowp+0x3000434>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30327c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000598>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59723,16 +59862,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0326a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00047c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032808 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005e0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120326b0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000484>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032810 <_sk_srcover_rgba_8888_sse2_lowp+0x120005e8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0326b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00048c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032818 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005f0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30326c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000494>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032820 <_sk_srcover_rgba_8888_sse2_lowp+0x30005f8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59775,16 +59914,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032708 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004dc>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032868 <_sk_srcover_rgba_8888_sse2_lowp+0xa000640>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032710 <_sk_srcover_rgba_8888_sse2_lowp+0x120004e4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032870 <_sk_srcover_rgba_8888_sse2_lowp+0x12000648>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032718 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004ec>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032878 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000650>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032720 <_sk_srcover_rgba_8888_sse2_lowp+0x30004f4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032880 <_sk_srcover_rgba_8888_sse2_lowp+0x3000658>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59827,16 +59966,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032768 <_sk_srcover_rgba_8888_sse2_lowp+0xa00053c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0328c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0006a0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032770 <_sk_srcover_rgba_8888_sse2_lowp+0x12000544>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120328d0 <_sk_srcover_rgba_8888_sse2_lowp+0x120006a8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032778 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00054c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0328d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0006b0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032780 <_sk_srcover_rgba_8888_sse2_lowp+0x3000554>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30328e0 <_sk_srcover_rgba_8888_sse2_lowp+0x30006b8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59879,16 +60018,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0327c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00059c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032928 <_sk_srcover_rgba_8888_sse2_lowp+0xa000700>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120327d0 <_sk_srcover_rgba_8888_sse2_lowp+0x120005a4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032930 <_sk_srcover_rgba_8888_sse2_lowp+0x12000708>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0327d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005ac>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032938 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000710>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30327e0 <_sk_srcover_rgba_8888_sse2_lowp+0x30005b4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032940 <_sk_srcover_rgba_8888_sse2_lowp+0x3000718>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59931,16 +60070,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032828 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005fc>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032988 <_sk_srcover_rgba_8888_sse2_lowp+0xa000760>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032830 <_sk_srcover_rgba_8888_sse2_lowp+0x12000604>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032990 <_sk_srcover_rgba_8888_sse2_lowp+0x12000768>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032838 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00060c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032998 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000770>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032840 <_sk_srcover_rgba_8888_sse2_lowp+0x3000614>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000778>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59964,23 +60103,9 @@ BALIGN32
.byte 255,30 // lcall *(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255 // (bad)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
- .byte 63 // (bad)
- .byte 0,0 // add %al,(%rax)
- .byte 192,63,0 // sarb $0x0,(%rdi)
- .byte 0,32 // add %ah,(%rax)
- .byte 64,0,0 // add %al,(%rax)
- .byte 96 // (bad)
- .byte 64,0,0 // add %al,(%rax)
- .byte 144 // nop
- .byte 64,0,0 // add %al,(%rax)
- .byte 176,64 // mov $0x40,%al
- .byte 0,0 // add %al,(%rax)
- .byte 208,64,0 // rolb 0x0(%rax)
- .byte 0,240 // add %dh,%al
- .byte 64,255,0 // rex incl (%rax)
- .byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -60211,7 +60336,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 32a53 <.const+0x573>
+ .byte 224,255 // loopne 32b93 <.const+0x513>
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
.byte 54,0,183,0,19,0,255 // add %dh,%ss:-0xffed00(%rdi)
@@ -60249,171 +60374,6 @@ BALIGN32
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
-BALIGN4
- .byte 0,0 // add %al,(%rax)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 128,63,1 // cmpb $0x1,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,4,0 // add %al,(%rax,%rax,1)
- .byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1)
- .byte 252 // cld
- .byte 190,0,0,128,191 // mov $0xbf800000,%esi
- .byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32b08 <.literal4+0x64>
- .byte 154 // (bad)
- .byte 153 // cltd
- .byte 153 // cltd
- .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 32b11 <.literal4+0x6d>
- .byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32b1b <.literal4+0x77>
- .byte 0,0 // add %al,(%rax)
- .byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
- .byte 158 // sahf
- .byte 61,92,143,50,63 // cmp $0x3f328f5c,%eax
- .byte 10,215 // or %bh,%dl
- .byte 35,59 // and (%rbx),%edi
- .byte 174 // scas %es:(%rdi),%al
- .byte 71,97 // rex.RXB (bad)
- .byte 61,82,184,78,65 // cmp $0x414eb852,%eax
- .byte 186,159,98,60,57 // mov $0x393c629f,%edx
- .byte 215 // xlat %ds:(%rbx)
- .byte 32,187,180,164,144,63 // and %bh,0x3f90a4b4(%rbx)
- .byte 252 // cld
- .byte 199 // (bad)
- .byte 16,62 // adc %bh,(%rsi)
- .byte 168,177 // test $0xb1,%al
- .byte 152 // cwtl
- .byte 59,0 // cmp (%rax),%eax
- .byte 0,192 // add %al,%al
- .byte 64,0,0 // add %al,(%rax)
- .byte 0,64,0 // add %al,0x0(%rax)
- .byte 0,128,64,171,170,42 // add %al,0x2aaaab40(%rax)
- .byte 62,171 // ds stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 62,171 // ds stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 42,63 // sub (%rdi),%bh
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 190,129,128,128,59 // mov $0x3b808081,%esi
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 8,33 // or %ah,(%rcx)
- .byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 32b35 <.literal4+0x91>
- .byte 0,0 // add %al,(%rax)
- .byte 33,8 // and %ecx,(%rax)
- .byte 2,58 // add (%rdx),%bh
- .byte 31 // (bad)
- .byte 0,0 // add %al,(%rax)
- .byte 0,8 // add %cl,(%rax)
- .byte 33,4,61,128,0,128,55 // and %eax,0x37800080(,%rdi,1)
- .byte 0,0 // add %al,(%rax)
- .byte 0,52,255 // add %dh,(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 127,0 // jg 32b48 <.literal4+0xa4>
- .byte 119,115 // ja 32bbd <.literal4+0x119>
- .byte 248 // clc
- .byte 194,117,191 // retq $0xbf75
- .byte 191,63,249,68,180 // mov $0xb444f93f,%edi
- .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9
- .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp
- .byte 154 // (bad)
- .byte 64,254 // rex (bad)
- .byte 210,221 // rcr %cl,%ch
- .byte 65,0,0 // add %al,(%r8)
- .byte 0,75,0 // add %cl,0x0(%rbx)
- .byte 0,200 // add %cl,%al
- .byte 66,0,0 // rex.X add %al,(%rax)
- .byte 0,195 // add %al,%bl
- .byte 0,0 // add %al,(%rax)
- .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx)
- .byte 13,60,111,18,3 // or $0x3126f3c,%eax
- .byte 59,10 // cmp (%rdx),%ecx
- .byte 215 // xlat %ds:(%rbx)
- .byte 163,59,194,24,17,60,203,61,13 // movabs %eax,0xd3dcb3c1118c23b
- .byte 190,80,128,3,62 // mov $0x3e038050,%esi
- .byte 31 // (bad)
- .byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32bd3 <.literal4+0x12f>
- .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 248 // clc
- .byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 32be2 <.literal4+0x13e>
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 32c05 <.literal4+0x161>
- .byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 32c0f <.literal4+0x16b>
- .byte 89 // pop %rcx
- .byte 23 // (bad)
- .byte 55 // (bad)
- .byte 63 // (bad)
- .byte 208 // (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,152 // ds cwtl
- .byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
- .byte 192,18,120 // rclb $0x78,(%rdx)
- .byte 57,64,32 // cmp %eax,0x20(%rax)
- .byte 148 // xchg %eax,%esp
- .byte 90 // pop %rdx
- .byte 62,4,157 // ds add $0x9d,%al
- .byte 30 // (bad)
- .byte 62,0,24 // add %bl,%ds:(%rax)
- .byte 161,57,111,43,231,187,159,215,202 // movabs 0xcad79fbbe72b6f39,%eax
- .byte 60,212 // cmp $0xd4,%al
- .byte 100,84 // fs push %rsp
- .byte 189,169,240,34,62 // mov $0x3e22f0a9,%ebp
- .byte 0,0 // add %al,(%rax)
- .byte 128,62,0 // cmpb $0x0,(%rsi)
- .byte 0,0 // add %al,(%rax)
- .byte 192,0,0 // rolb $0x0,(%rax)
- .byte 128,192,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 128,0,0 // addb $0x0,(%rax)
- .byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 32c2e <.literal4+0x18a>
- .byte 199 // (bad)
- .byte 62,85 // ds push %rbp
- .byte 85 // push %rbp
- .byte 149 // xchg %eax,%ebp
- .byte 191,0,0,192,63 // mov $0x3fc00000,%edi
- .byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 32c63 <_sk_srcover_rgba_8888_sse2_lowp+0xa37>
- .byte 3,0 // add (%rax),%eax
- .byte 0,0 // add %al,(%rax)
- .byte 109 // insl (%dx),%es:(%rdi)
- .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
- .byte 144 // nop
- .byte 63 // (bad)
- .byte 252 // cld
- .byte 191,16,62,0,4 // mov $0x4003e10,%edi
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,56 // add %bh,(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,0 // jg 32c3d <.literal4+0x199>
- .byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
- .byte 255 // .byte 0xff
-
BALIGN16
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
@@ -60457,13 +60417,6 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
- .byte 192,63,0 // sarb $0x0,(%rdi)
- .byte 0,32 // add %ah,(%rax)
- .byte 64,0,0 // add %al,(%rax)
- .byte 96 // (bad)
- .byte 64,0,0 // add %al,(%rax)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
@@ -60513,11 +60466,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32d78 <.literal16+0x128>
+ .byte 224,64 // loopne 32d08 <.literal16+0x118>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32d7c <.literal16+0x12c>
+ .byte 224,64 // loopne 32d0c <.literal16+0x11c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32d80 <.literal16+0x130>
+ .byte 224,64 // loopne 32d10 <.literal16+0x120>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -60537,13 +60490,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32da1 <.literal16+0x151>
+ .byte 71,225,61 // rex.RXB loope 32d31 <.literal16+0x141>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32da5 <.literal16+0x155>
+ .byte 71,225,61 // rex.RXB loope 32d35 <.literal16+0x145>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32da9 <.literal16+0x159>
+ .byte 71,225,61 // rex.RXB loope 32d39 <.literal16+0x149>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32dad <.literal16+0x15d>
+ .byte 71,225,61 // rex.RXB loope 32d3d <.literal16+0x14d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -60554,10 +60507,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032d88 <_sk_srcover_rgba_8888_sse2_lowp+0xa000b5c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032d18 <_sk_srcover_rgba_8888_sse2_lowp+0xa000af0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3032d90 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b64>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3032d20 <_sk_srcover_rgba_8888_sse2_lowp+0x3000af8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -60572,11 +60525,11 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32deb <.literal16+0x19b>
+ .byte 127,67 // jg 32d7b <.literal16+0x18b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32def <.literal16+0x19f>
+ .byte 127,67 // jg 32d7f <.literal16+0x18f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32df3 <.literal16+0x1a3>
+ .byte 127,67 // jg 32d83 <.literal16+0x193>
.byte 0,0 // add %al,(%rax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
@@ -60732,13 +60685,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 32f09 <.literal16+0x2b9>
+ .byte 224,7 // loopne 32e99 <.literal16+0x2a9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 32f0d <.literal16+0x2bd>
+ .byte 224,7 // loopne 32e9d <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 32f11 <.literal16+0x2c1>
+ .byte 224,7 // loopne 32ea1 <.literal16+0x2b1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 32f15 <.literal16+0x2c5>
+ .byte 224,7 // loopne 32ea5 <.literal16+0x2b5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -60792,17 +60745,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 32f84 <.literal16+0x334>
+ .byte 127,0 // jg 32f14 <.literal16+0x324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32f88 <.literal16+0x338>
+ .byte 127,0 // jg 32f18 <.literal16+0x328>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32f8c <.literal16+0x33c>
+ .byte 127,0 // jg 32f1c <.literal16+0x32c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32f90 <.literal16+0x340>
- .byte 119,115 // ja 33005 <.literal16+0x3b5>
+ .byte 127,0 // jg 32f20 <.literal16+0x330>
+ .byte 119,115 // ja 32f95 <.literal16+0x3a5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -60813,7 +60766,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 32f69 <.literal16+0x319>
+ .byte 117,191 // jne 32ef9 <.literal16+0x309>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -60825,7 +60778,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a66faa <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d7e>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a66f3a <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d12>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -60915,16 +60868,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 330f3 <.literal16+0x4a3>
+ .byte 118,63 // jbe 33083 <.literal16+0x493>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 330f7 <.literal16+0x4a7>
+ .byte 118,63 // jbe 33087 <.literal16+0x497>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 330fb <.literal16+0x4ab>
+ .byte 118,63 // jbe 3308b <.literal16+0x49b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 330ff <.literal16+0x4af>
+ .byte 118,63 // jbe 3308f <.literal16+0x49f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -60945,13 +60898,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 33136 <.literal16+0x4e6>
+ .byte 124,66 // jl 330c6 <.literal16+0x4d6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3313a <.literal16+0x4ea>
+ .byte 124,66 // jl 330ca <.literal16+0x4da>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3313e <.literal16+0x4ee>
+ .byte 124,66 // jl 330ce <.literal16+0x4de>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 33142 <.literal16+0x4f2>
+ .byte 124,66 // jl 330d2 <.literal16+0x4e2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -60997,25 +60950,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 331c5 <.literal16+0x575>
+ .byte 112,65 // jo 33155 <.literal16+0x565>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 331c9 <.literal16+0x579>
+ .byte 112,65 // jo 33159 <.literal16+0x569>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 331cd <.literal16+0x57d>
+ .byte 112,65 // jo 3315d <.literal16+0x56d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 331d1 <.literal16+0x581>
+ .byte 112,65 // jo 33161 <.literal16+0x571>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 331a3 <.literal16+0x553>
+ .byte 127,0 // jg 33133 <.literal16+0x543>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 331a7 <.literal16+0x557>
+ .byte 127,0 // jg 33137 <.literal16+0x547>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 331ab <.literal16+0x55b>
+ .byte 127,0 // jg 3313b <.literal16+0x54b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 331af <.literal16+0x55f>
+ .byte 127,0 // jg 3313f <.literal16+0x54f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -61041,13 +60994,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 331e8 <.literal16+0x598>
+ .byte 127,255 // jg 33178 <.literal16+0x588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 331ec <.literal16+0x59c>
+ .byte 127,255 // jg 3317c <.literal16+0x58c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 331f1 <.literal16+0x5a1>
+ .byte 127,0 // jg 33181 <.literal16+0x591>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -61061,13 +61014,13 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 3325b <.literal16+0x60b>
+ .byte 127,71 // jg 331eb <.literal16+0x5fb>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3325f <.literal16+0x60f>
+ .byte 127,71 // jg 331ef <.literal16+0x5ff>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 33263 <.literal16+0x613>
+ .byte 127,71 // jg 331f3 <.literal16+0x603>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 33267 <.literal16+0x617>
+ .byte 127,71 // jg 331f7 <.literal16+0x607>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -61097,10 +61050,10 @@ BALIGN16
.byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
.byte 152 // cwtl
.byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3436a <_sk_srcover_rgba_8888_sse2_lowp+0x2dc0213e>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc342fa <_sk_srcover_rgba_8888_sse2_lowp+0x2dc020d2>
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 3329c <.literal16+0x64c>
+ .byte 120,57 // js 3322c <.literal16+0x63c>
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -61165,13 +61118,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 3334e <.literal16+0x6fe>
+ .byte 114,28 // jb 332de <.literal16+0x6ee>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 33352 <.literal16+0x702>
+ .byte 62,114,28 // jb,pt 332e2 <.literal16+0x6f2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 33356 <.literal16+0x706>
+ .byte 62,114,28 // jb,pt 332e6 <.literal16+0x6f6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3335a <.literal16+0x70a>
+ .byte 62,114,28 // jb,pt 332ea <.literal16+0x6fa>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -61190,15 +61143,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d66c1a5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f79>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d66c135 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f0d>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 333b3 <.literal16+0x763>
- .byte 114,249 // jb 3336f <.literal16+0x71f>
- .byte 127,63 // jg 333b7 <.literal16+0x767>
- .byte 114,249 // jb 33373 <.literal16+0x723>
- .byte 127,63 // jg 333bb <.literal16+0x76b>
- .byte 114,249 // jb 33377 <.literal16+0x727>
- .byte 127,63 // jg 333bf <.literal16+0x76f>
+ .byte 127,63 // jg 33343 <.literal16+0x753>
+ .byte 114,249 // jb 332ff <.literal16+0x70f>
+ .byte 127,63 // jg 33347 <.literal16+0x757>
+ .byte 114,249 // jb 33303 <.literal16+0x713>
+ .byte 127,63 // jg 3334b <.literal16+0x75b>
+ .byte 114,249 // jb 33307 <.literal16+0x717>
+ .byte 127,63 // jg 3334f <.literal16+0x75f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -61308,14 +61261,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 33451 <.literal16+0x801>
- .byte 224,255 // loopne 33453 <.literal16+0x803>
- .byte 224,255 // loopne 33455 <.literal16+0x805>
- .byte 224,255 // loopne 33457 <.literal16+0x807>
- .byte 224,255 // loopne 33459 <.literal16+0x809>
- .byte 224,255 // loopne 3345b <.literal16+0x80b>
- .byte 224,255 // loopne 3345d <.literal16+0x80d>
- .byte 224,255 // loopne 3345f <.literal16+0x80f>
+ .byte 224,255 // loopne 333e1 <.literal16+0x7f1>
+ .byte 224,255 // loopne 333e3 <.literal16+0x7f3>
+ .byte 224,255 // loopne 333e5 <.literal16+0x7f5>
+ .byte 224,255 // loopne 333e7 <.literal16+0x7f7>
+ .byte 224,255 // loopne 333e9 <.literal16+0x7f9>
+ .byte 224,255 // loopne 333eb <.literal16+0x7fb>
+ .byte 224,255 // loopne 333ed <.literal16+0x7fd>
+ .byte 224,255 // loopne 333ef <.literal16+0x7ff>
.byte 54,0,54 // add %dh,%ss:(%rsi)
.byte 0,54 // add %dh,(%rsi)
.byte 0,54 // add %dh,(%rsi)
@@ -61357,9 +61310,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 334bb <.literal8+0x1b>
+ .byte 127,0 // jg 3344b <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 334bf <.literal8+0x1f>
+ .byte 127,0 // jg 3344f <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
@@ -61460,28 +61413,30 @@ _sk_seed_shader_sse2:
.byte 80 // push %eax
.byte 232,0,0,0,0 // call c9 <_sk_seed_shader_sse2+0xa>
.byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 102,15,110,2 // movd (%edx),%xmm0
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,85,12 // mov 0xc(%ebp),%edx
+ .byte 139,50 // mov (%edx),%esi
+ .byte 102,15,110,1 // movd (%ecx),%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,128,23,204,0,0 // addps 0xcc17(%eax),%xmm0
- .byte 102,15,110,74,4 // movd 0x4(%edx),%xmm1
+ .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
+ .byte 15,16,6 // movups (%esi),%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,136,39,204,0,0 // addps 0xcc27(%eax),%xmm1
- .byte 141,113,4 // lea 0x4(%ecx),%esi
+ .byte 15,88,136,23,204,0,0 // addps 0xcc17(%eax),%xmm1
+ .byte 141,114,8 // lea 0x8(%edx),%esi
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,41,82,64 // movaps %xmm2,0x40(%edx)
- .byte 15,41,82,48 // movaps %xmm2,0x30(%edx)
- .byte 15,41,82,32 // movaps %xmm2,0x20(%edx)
- .byte 15,41,82,16 // movaps %xmm2,0x10(%edx)
+ .byte 15,41,81,64 // movaps %xmm2,0x40(%ecx)
+ .byte 15,41,81,48 // movaps %xmm2,0x30(%ecx)
+ .byte 15,41,81,32 // movaps %xmm2,0x20(%ecx)
+ .byte 15,41,81,16 // movaps %xmm2,0x10(%ecx)
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,55,204,0,0 // movaps 0xcc37(%eax),%xmm2
+ .byte 15,40,144,39,204,0,0 // movaps 0xcc27(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 86 // push %esi
- .byte 82 // push %edx
- .byte 255,17 // call *(%ecx)
+ .byte 81 // push %ecx
+ .byte 255,82,4 // call *0x4(%edx)
.byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
.byte 93 // pop %ebp
@@ -61499,20 +61454,20 @@ _sk_dither_sse2:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 13e <_sk_dither_sse2+0x1a>
+ .byte 232,0,0,0,0 // call 140 <_sk_dither_sse2+0x1a>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 102,15,110,32 // movd (%eax),%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,254,161,210,203,0,0 // paddd 0xcbd2(%ecx),%xmm4
+ .byte 102,15,254,161,192,203,0,0 // paddd 0xcbc0(%ecx),%xmm4
.byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5
.byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7
.byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,111,177,226,203,0,0 // movdqa 0xcbe2(%ecx),%xmm6
+ .byte 102,15,111,177,208,203,0,0 // movdqa 0xcbd0(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,114,241,5 // pslld $0x5,%xmm1
- .byte 102,15,111,129,2,204,0,0 // movdqa 0xcc02(%ecx),%xmm0
+ .byte 102,15,111,129,240,203,0,0 // movdqa 0xcbf0(%ecx),%xmm0
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,114,245,2 // pslld $0x2,%xmm5
@@ -61522,7 +61477,7 @@ _sk_dither_sse2:
.byte 102,15,219,196 // pand %xmm4,%xmm0
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,137,242,203,0,0 // movdqa 0xcbf2(%ecx),%xmm1
+ .byte 102,15,111,137,224,203,0,0 // movdqa 0xcbe0(%ecx),%xmm1
.byte 102,15,219,249 // pand %xmm1,%xmm7
.byte 102,15,219,225 // pand %xmm1,%xmm4
.byte 102,15,114,212,2 // psrld $0x2,%xmm4
@@ -61533,8 +61488,8 @@ _sk_dither_sse2:
.byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,18,204,0,0 // mulps 0xcc12(%ecx),%xmm0
- .byte 15,88,129,34,204,0,0 // addps 0xcc22(%ecx),%xmm0
+ .byte 15,89,129,0,204,0,0 // mulps 0xcc00(%ecx),%xmm0
+ .byte 15,88,129,16,204,0,0 // addps 0xcc10(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -61597,12 +61552,12 @@ _sk_black_color_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 27a <_sk_black_color_sse2+0xb>
+ .byte 232,0,0,0,0 // call 27c <_sk_black_color_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,134,202,0,0 // movaps 0xca86(%eax),%xmm3
+ .byte 15,40,152,116,202,0,0 // movaps 0xca74(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -61620,12 +61575,12 @@ _sk_white_color_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 2aa <_sk_white_color_sse2+0xb>
+ .byte 232,0,0,0,0 // call 2ac <_sk_white_color_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,86,202,0,0 // movaps 0xca56(%eax),%xmm0
+ .byte 15,40,128,68,202,0,0 // movaps 0xca44(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -61709,13 +61664,13 @@ _sk_srcatop_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 359 <_sk_srcatop_sse2+0xb>
+ .byte 232,0,0,0,0 // call 35b <_sk_srcatop_sse2+0xb>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,167,201,0,0 // movaps 0xc9a7(%edx),%xmm5
+ .byte 15,40,170,149,201,0,0 // movaps 0xc995(%edx),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -61747,14 +61702,14 @@ _sk_dstatop_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 3b8 <_sk_dstatop_sse2+0xb>
+ .byte 232,0,0,0,0 // call 3ba <_sk_dstatop_sse2+0xb>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,72,201,0,0 // movaps 0xc948(%edx),%xmm4
+ .byte 15,40,162,54,201,0,0 // movaps 0xc936(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
@@ -61834,11 +61789,11 @@ _sk_srcout_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 479 <_sk_srcout_sse2+0xb>
+ .byte 232,0,0,0,0 // call 47b <_sk_srcout_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,135,200,0,0 // movaps 0xc887(%eax),%xmm4
+ .byte 15,40,160,117,200,0,0 // movaps 0xc875(%eax),%xmm4
.byte 15,92,98,64 // subps 0x40(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
@@ -61860,11 +61815,11 @@ _sk_dstout_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 4b1 <_sk_dstout_sse2+0xb>
+ .byte 232,0,0,0,0 // call 4b3 <_sk_dstout_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,79,200,0,0 // movaps 0xc84f(%eax),%xmm4
+ .byte 15,40,160,61,200,0,0 // movaps 0xc83d(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -61890,11 +61845,11 @@ _sk_srcover_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 4f8 <_sk_srcover_sse2+0xb>
+ .byte 232,0,0,0,0 // call 4fa <_sk_srcover_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,8,200,0,0 // movaps 0xc808(%eax),%xmm4
+ .byte 15,40,160,246,199,0,0 // movaps 0xc7f6(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -61923,12 +61878,12 @@ _sk_dstover_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 548 <_sk_dstover_sse2+0xb>
+ .byte 232,0,0,0,0 // call 54a <_sk_dstover_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,184,199,0,0 // movaps 0xc7b8(%eax),%xmm4
+ .byte 15,40,160,166,199,0,0 // movaps 0xc7a6(%eax),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
@@ -61979,12 +61934,12 @@ _sk_multiply_sse2:
.byte 131,236,56 // sub $0x38,%esp
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 232,0,0,0,0 // call 5c7 <_sk_multiply_sse2+0x12>
+ .byte 232,0,0,0,0 // call 5c9 <_sk_multiply_sse2+0x12>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,57,199,0,0 // movaps 0xc739(%ecx),%xmm0
+ .byte 15,40,129,39,199,0,0 // movaps 0xc727(%ecx),%xmm0
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -62039,12 +61994,12 @@ _sk_plus__sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 66d <_sk_plus__sse2+0xb>
+ .byte 232,0,0,0,0 // call 66f <_sk_plus__sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,40,160,147,198,0,0 // movaps 0xc693(%eax),%xmm4
+ .byte 15,40,160,129,198,0,0 // movaps 0xc681(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,88,74,32 // addps 0x20(%edx),%xmm1
.byte 15,93,204 // minps %xmm4,%xmm1
@@ -62111,12 +62066,12 @@ _sk_xor__sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 232,0,0,0,0 // call 71b <_sk_xor__sse2+0xe>
+ .byte 232,0,0,0,0 // call 71d <_sk_xor__sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,229,197,0,0 // movaps 0xc5e5(%edx),%xmm3
+ .byte 15,40,154,211,197,0,0 // movaps 0xc5d3(%edx),%xmm3
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,89,198 // mulps %xmm6,%xmm0
@@ -62152,7 +62107,7 @@ _sk_darken_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 783 <_sk_darken_sse2+0xe>
+ .byte 232,0,0,0,0 // call 785 <_sk_darken_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -62178,7 +62133,7 @@ _sk_darken_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,95,209 // maxps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,125,197,0,0 // movaps 0xc57d(%edx),%xmm1
+ .byte 15,40,138,107,197,0,0 // movaps 0xc56b(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -62201,7 +62156,7 @@ _sk_lighten_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 803 <_sk_lighten_sse2+0xe>
+ .byte 232,0,0,0,0 // call 805 <_sk_lighten_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -62227,7 +62182,7 @@ _sk_lighten_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,93,209 // minps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,253,196,0,0 // movaps 0xc4fd(%edx),%xmm1
+ .byte 15,40,138,235,196,0,0 // movaps 0xc4eb(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -62251,7 +62206,7 @@ _sk_difference_sse2:
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,225 // movaps %xmm1,%xmm4
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 886 <_sk_difference_sse2+0x11>
+ .byte 232,0,0,0,0 // call 888 <_sk_difference_sse2+0x11>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -62280,7 +62235,7 @@ _sk_difference_sse2:
.byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,122,196,0,0 // movaps 0xc47a(%edx),%xmm2
+ .byte 15,40,146,104,196,0,0 // movaps 0xc468(%edx),%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -62302,7 +62257,7 @@ _sk_exclusion_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 90c <_sk_exclusion_sse2+0xe>
+ .byte 232,0,0,0,0 // call 90e <_sk_exclusion_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -62324,7 +62279,7 @@ _sk_exclusion_sse2:
.byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,244,195,0,0 // movaps 0xc3f4(%edx),%xmm1
+ .byte 15,40,138,226,195,0,0 // movaps 0xc3e2(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -62350,7 +62305,7 @@ _sk_colorburn_sse2:
.byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 98b <_sk_colorburn_sse2+0x19>
+ .byte 232,0,0,0,0 // call 98d <_sk_colorburn_sse2+0x19>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
@@ -62365,7 +62320,7 @@ _sk_colorburn_sse2:
.byte 15,93,198 // minps %xmm6,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,177,117,195,0,0 // movaps 0xc375(%ecx),%xmm6
+ .byte 15,40,177,99,195,0,0 // movaps 0xc363(%ecx),%xmm6
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
@@ -62478,11 +62433,11 @@ _sk_colordodge_sse2:
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 232,0,0,0,0 // call b14 <_sk_colordodge_sse2+0x16>
+ .byte 232,0,0,0,0 // call b16 <_sk_colordodge_sse2+0x16>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,145,236,193,0,0 // movaps 0xc1ec(%ecx),%xmm2
+ .byte 15,40,145,218,193,0,0 // movaps 0xc1da(%ecx),%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,250 // movaps %xmm2,%xmm7
@@ -62595,11 +62550,11 @@ _sk_hardlight_sse2:
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
.byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 232,0,0,0,0 // call c75 <_sk_hardlight_sse2+0x16>
+ .byte 232,0,0,0,0 // call c77 <_sk_hardlight_sse2+0x16>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,139,192,0,0 // movaps 0xc08b(%ecx),%xmm2
+ .byte 15,40,145,121,192,0,0 // movaps 0xc079(%ecx),%xmm2
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -62705,11 +62660,11 @@ _sk_overlay_sse2:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 232,0,0,0,0 // call dc0 <_sk_overlay_sse2+0x1a>
+ .byte 232,0,0,0,0 // call dc2 <_sk_overlay_sse2+0x1a>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,64,191,0,0 // movaps 0xbf40(%ecx),%xmm4
+ .byte 15,40,161,46,191,0,0 // movaps 0xbf2e(%ecx),%xmm4
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -62834,20 +62789,20 @@ _sk_softlight_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,241 // addps %xmm1,%xmm6
- .byte 232,0,0,0,0 // call f50 <_sk_softlight_sse2+0x52>
+ .byte 232,0,0,0,0 // call f52 <_sk_softlight_sse2+0x52>
.byte 89 // pop %ecx
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,32,190,0,0 // movaps 0xbe20(%ecx),%xmm1
+ .byte 15,40,137,14,190,0,0 // movaps 0xbe0e(%ecx),%xmm1
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
.byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,176,189,0,0 // movaps 0xbdb0(%ecx),%xmm7
+ .byte 15,40,185,158,189,0,0 // movaps 0xbd9e(%ecx),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,82,242 // rsqrtps %xmm2,%xmm6
.byte 15,83,206 // rcpps %xmm6,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,48,190,0,0 // movaps 0xbe30(%ecx),%xmm4
+ .byte 15,40,161,30,190,0,0 // movaps 0xbe1e(%ecx),%xmm4
.byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
@@ -63043,7 +62998,7 @@ _sk_hue_sse2:
.byte 15,93,200 // minps %xmm0,%xmm1
.byte 15,92,225 // subps %xmm1,%xmm4
.byte 15,41,101,168 // movaps %xmm4,-0x58(%ebp)
- .byte 232,0,0,0,0 // call 1211 <_sk_hue_sse2+0x4f>
+ .byte 232,0,0,0,0 // call 1213 <_sk_hue_sse2+0x4f>
.byte 89 // pop %ecx
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -63053,7 +63008,7 @@ _sk_hue_sse2:
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,239,186,0,0 // movaps 0xbaef(%ecx),%xmm5
+ .byte 15,40,169,221,186,0,0 // movaps 0xbadd(%ecx),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
@@ -63086,17 +63041,17 @@ _sk_hue_sse2:
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,127,187,0,0 // movaps 0xbb7f(%ecx),%xmm3
+ .byte 15,40,153,109,187,0,0 // movaps 0xbb6d(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,143,187,0,0 // movaps 0xbb8f(%ecx),%xmm3
+ .byte 15,40,153,125,187,0,0 // movaps 0xbb7d(%ecx),%xmm3
.byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,239,186,0,0 // movaps 0xbaef(%ecx),%xmm1
+ .byte 15,40,137,221,186,0,0 // movaps 0xbadd(%ecx),%xmm1
.byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
@@ -63106,7 +63061,7 @@ _sk_hue_sse2:
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,159,187,0,0 // movaps 0xbb9f(%ecx),%xmm5
+ .byte 15,40,169,141,187,0,0 // movaps 0xbb8d(%ecx),%xmm5
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
.byte 15,94,212 // divps %xmm4,%xmm2
@@ -63297,19 +63252,19 @@ _sk_saturation_sse2:
.byte 15,89,221 // mulps %xmm5,%xmm3
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 232,0,0,0,0 // call 1565 <_sk_saturation_sse2+0xb0>
+ .byte 232,0,0,0,0 // call 1567 <_sk_saturation_sse2+0xb0>
.byte 89 // pop %ecx
- .byte 15,40,153,43,184,0,0 // movaps 0xb82b(%ecx),%xmm3
+ .byte 15,40,153,25,184,0,0 // movaps 0xb819(%ecx),%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,59,184,0,0 // movaps 0xb83b(%ecx),%xmm3
+ .byte 15,40,153,41,184,0,0 // movaps 0xb829(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,155,183,0,0 // movaps 0xb79b(%ecx),%xmm0
+ .byte 15,40,129,137,183,0,0 // movaps 0xb789(%ecx),%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -63321,7 +63276,7 @@ _sk_saturation_sse2:
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,75,184,0,0 // movaps 0xb84b(%ecx),%xmm0
+ .byte 15,40,129,57,184,0,0 // movaps 0xb839(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
@@ -63475,21 +63430,21 @@ _sk_color_sse2:
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
- .byte 232,0,0,0,0 // call 17c0 <_sk_color_sse2+0x2a>
+ .byte 232,0,0,0,0 // call 17c2 <_sk_color_sse2+0x2a>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
.byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,208,181,0,0 // movaps 0xb5d0(%ecx),%xmm6
+ .byte 15,40,177,190,181,0,0 // movaps 0xb5be(%ecx),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,224,181,0,0 // movaps 0xb5e0(%ecx),%xmm3
+ .byte 15,40,153,206,181,0,0 // movaps 0xb5ce(%ecx),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,64,181,0,0 // movaps 0xb540(%ecx),%xmm0
+ .byte 15,40,129,46,181,0,0 // movaps 0xb52e(%ecx),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -63499,7 +63454,7 @@ _sk_color_sse2:
.byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,240,181,0,0 // movaps 0xb5f0(%ecx),%xmm1
+ .byte 15,40,137,222,181,0,0 // movaps 0xb5de(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
@@ -63655,21 +63610,21 @@ _sk_luminosity_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 129,236,184,0,0,0 // sub $0xb8,%esp
.byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 232,0,0,0,0 // call 1a23 <_sk_luminosity_sse2+0x11>
+ .byte 232,0,0,0,0 // call 1a25 <_sk_luminosity_sse2+0x11>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,109,179,0,0 // movaps 0xb36d(%ecx),%xmm4
+ .byte 15,40,161,91,179,0,0 // movaps 0xb35b(%ecx),%xmm4
.byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,125,179,0,0 // movaps 0xb37d(%ecx),%xmm4
+ .byte 15,40,161,107,179,0,0 // movaps 0xb36b(%ecx),%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,221,178,0,0 // movaps 0xb2dd(%ecx),%xmm4
+ .byte 15,40,161,203,178,0,0 // movaps 0xb2cb(%ecx),%xmm4
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -63679,7 +63634,7 @@ _sk_luminosity_sse2:
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
.byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,141,179,0,0 // movaps 0xb38d(%ecx),%xmm1
+ .byte 15,40,137,123,179,0,0 // movaps 0xb37b(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,213 // addps %xmm5,%xmm2
.byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
@@ -63841,7 +63796,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 131,236,44 // sub $0x2c,%esp
.byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 1c8e <_sk_srcover_rgba_8888_sse2+0x17>
+ .byte 232,0,0,0,0 // call 1c90 <_sk_srcover_rgba_8888_sse2+0x17>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -63853,9 +63808,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,133,224,0,0,0 // jne 1d90 <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 15,133,224,0,0,0 // jne 1d92 <_sk_srcover_rgba_8888_sse2+0x119>
.byte 243,15,111,20,178 // movdqu (%edx,%esi,4),%xmm2
- .byte 102,15,111,167,50,177,0,0 // movdqa 0xb132(%edi),%xmm4
+ .byte 102,15,111,167,32,177,0,0 // movdqa 0xb120(%edi),%xmm4
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 102,15,111,242 // movdqa %xmm2,%xmm6
@@ -63866,9 +63821,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 15,91,229 // cvtdq2ps %xmm5,%xmm4
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,175,114,176,0,0 // movaps 0xb072(%edi),%xmm5
+ .byte 15,40,175,96,176,0,0 // movaps 0xb060(%edi),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,143,66,177,0,0 // movaps 0xb142(%edi),%xmm1
+ .byte 15,40,143,48,177,0,0 // movaps 0xb130(%edi),%xmm1
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
@@ -63901,7 +63856,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 133,219 // test %ebx,%ebx
- .byte 117,95 // jne 1dcb <_sk_srcover_rgba_8888_sse2+0x154>
+ .byte 117,95 // jne 1dcd <_sk_srcover_rgba_8888_sse2+0x154>
.byte 243,15,127,4,178 // movdqu %xmm0,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -63922,33 +63877,33 @@ _sk_srcover_rgba_8888_sse2:
.byte 136,69,243 // mov %al,-0xd(%ebp)
.byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
.byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,80 // je 1def <_sk_srcover_rgba_8888_sse2+0x178>
+ .byte 116,80 // je 1df1 <_sk_srcover_rgba_8888_sse2+0x178>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 116,21 // je 1dc1 <_sk_srcover_rgba_8888_sse2+0x14a>
+ .byte 116,21 // je 1dc3 <_sk_srcover_rgba_8888_sse2+0x14a>
.byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 15,133,255,254,255,255 // jne 1cb5 <_sk_srcover_rgba_8888_sse2+0x3e>
+ .byte 15,133,255,254,255,255 // jne 1cb7 <_sk_srcover_rgba_8888_sse2+0x3e>
.byte 102,15,110,84,178,8 // movd 0x8(%edx,%esi,4),%xmm2
.byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2
.byte 102,15,18,20,178 // movlpd (%edx,%esi,4),%xmm2
- .byte 233,234,254,255,255 // jmp 1cb5 <_sk_srcover_rgba_8888_sse2+0x3e>
+ .byte 233,234,254,255,255 // jmp 1cb7 <_sk_srcover_rgba_8888_sse2+0x3e>
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,41 // je 1dfc <_sk_srcover_rgba_8888_sse2+0x185>
+ .byte 116,41 // je 1dfe <_sk_srcover_rgba_8888_sse2+0x185>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 1de8 <_sk_srcover_rgba_8888_sse2+0x171>
+ .byte 116,16 // je 1dea <_sk_srcover_rgba_8888_sse2+0x171>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,148 // jne 1d71 <_sk_srcover_rgba_8888_sse2+0xfa>
+ .byte 117,148 // jne 1d73 <_sk_srcover_rgba_8888_sse2+0xfa>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,15,126,76,178,8 // movd %xmm1,0x8(%edx,%esi,4)
.byte 102,15,214,4,178 // movq %xmm0,(%edx,%esi,4)
- .byte 235,130 // jmp 1d71 <_sk_srcover_rgba_8888_sse2+0xfa>
+ .byte 235,130 // jmp 1d73 <_sk_srcover_rgba_8888_sse2+0xfa>
.byte 102,15,110,20,178 // movd (%edx,%esi,4),%xmm2
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 233,185,254,255,255 // jmp 1cb5 <_sk_srcover_rgba_8888_sse2+0x3e>
+ .byte 233,185,254,255,255 // jmp 1cb7 <_sk_srcover_rgba_8888_sse2+0x3e>
.byte 102,15,126,4,178 // movd %xmm0,(%edx,%esi,4)
- .byte 233,107,255,255,255 // jmp 1d71 <_sk_srcover_rgba_8888_sse2+0xfa>
+ .byte 233,107,255,255,255 // jmp 1d73 <_sk_srcover_rgba_8888_sse2+0xfa>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -63979,10 +63934,10 @@ _sk_clamp_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 1e3a <_sk_clamp_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 1e3c <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,198,174,0,0 // movaps 0xaec6(%eax),%xmm4
+ .byte 15,40,160,180,174,0,0 // movaps 0xaeb4(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,93,204 // minps %xmm4,%xmm1
.byte 15,93,212 // minps %xmm4,%xmm2
@@ -64003,10 +63958,10 @@ _sk_clamp_a_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 1e6d <_sk_clamp_a_sse2+0xb>
+ .byte 232,0,0,0,0 // call 1e6f <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,147,174,0,0 // minps 0xae93(%eax),%xmm3
+ .byte 15,93,152,129,174,0,0 // minps 0xae81(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -64026,12 +63981,12 @@ _sk_clamp_a_dst_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 1e9d <_sk_clamp_a_dst_sse2+0xb>
+ .byte 232,0,0,0,0 // call 1e9f <_sk_clamp_a_dst_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,99,174,0,0 // minps 0xae63(%eax),%xmm4
+ .byte 15,93,160,81,174,0,0 // minps 0xae51(%eax),%xmm4
.byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,40,114,32 // movaps 0x20(%edx),%xmm6
@@ -64102,10 +64057,10 @@ _sk_invert_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 1f48 <_sk_invert_sse2+0xb>
+ .byte 232,0,0,0,0 // call 1f4a <_sk_invert_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,184,173,0,0 // movaps 0xadb8(%eax),%xmm4
+ .byte 15,40,160,166,173,0,0 // movaps 0xada6(%eax),%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
@@ -64224,13 +64179,13 @@ _sk_unpremul_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 2046 <_sk_unpremul_sse2+0xb>
+ .byte 232,0,0,0,0 // call 2048 <_sk_unpremul_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,186,172,0,0 // movaps 0xacba(%eax),%xmm4
+ .byte 15,40,160,168,172,0,0 // movaps 0xaca8(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,194,168,154,173,0,0,1 // cmpltps 0xad9a(%eax),%xmm5
+ .byte 15,194,168,136,173,0,0,1 // cmpltps 0xad88(%eax),%xmm5
.byte 15,84,236 // andps %xmm4,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,205 // mulps %xmm5,%xmm1
@@ -64255,23 +64210,23 @@ _sk_from_srgb_sse2:
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 2094 <_sk_from_srgb_sse2+0x18>
+ .byte 232,0,0,0,0 // call 2096 <_sk_from_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,252,172,0,0 // movaps 0xacfc(%eax),%xmm4
+ .byte 15,40,160,234,172,0,0 // movaps 0xacea(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,108,173,0,0 // movaps 0xad6c(%eax),%xmm6
+ .byte 15,40,176,90,173,0,0 // movaps 0xad5a(%eax),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,92,173,0,0 // movaps 0xad5c(%eax),%xmm6
+ .byte 15,40,176,74,173,0,0 // movaps 0xad4a(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,124,173,0,0 // movaps 0xad7c(%eax),%xmm7
+ .byte 15,40,184,106,173,0,0 // movaps 0xad6a(%eax),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,140,173,0,0 // movaps 0xad8c(%eax),%xmm7
+ .byte 15,40,184,122,173,0,0 // movaps 0xad7a(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -64325,24 +64280,24 @@ _sk_from_srgb_dst_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 232,0,0,0,0 // call 216f <_sk_from_srgb_dst_sse2+0x1b>
+ .byte 232,0,0,0,0 // call 2171 <_sk_from_srgb_dst_sse2+0x1b>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,33,172,0,0 // movaps 0xac21(%ecx),%xmm4
+ .byte 15,40,161,15,172,0,0 // movaps 0xac0f(%ecx),%xmm4
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,145,172,0,0 // movaps 0xac91(%ecx),%xmm6
+ .byte 15,40,177,127,172,0,0 // movaps 0xac7f(%ecx),%xmm6
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,129,172,0,0 // movaps 0xac81(%ecx),%xmm5
+ .byte 15,40,169,111,172,0,0 // movaps 0xac6f(%ecx),%xmm5
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,161,172,0,0 // movaps 0xaca1(%ecx),%xmm7
+ .byte 15,40,185,143,172,0,0 // movaps 0xac8f(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,177,172,0,0 // movaps 0xacb1(%ecx),%xmm3
+ .byte 15,40,153,159,172,0,0 // movaps 0xac9f(%ecx),%xmm3
.byte 15,194,203,1 // cmpltps %xmm3,%xmm1
.byte 15,84,209 // andps %xmm1,%xmm2
.byte 15,85,200 // andnps %xmm0,%xmm1
@@ -64401,28 +64356,28 @@ _sk_to_srgb_sse2:
.byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 225a <_sk_to_srgb_sse2+0x18>
+ .byte 232,0,0,0,0 // call 225c <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,230,171,0,0 // movaps 0xabe6(%eax),%xmm4
+ .byte 15,40,160,212,171,0,0 // movaps 0xabd4(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,246,171,0,0 // movaps 0xabf6(%eax),%xmm0
+ .byte 15,40,128,228,171,0,0 // movaps 0xabe4(%eax),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,6,172,0,0 // movaps 0xac06(%eax),%xmm0
+ .byte 15,40,128,244,171,0,0 // movaps 0xabf4(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,22,172,0,0 // movaps 0xac16(%eax),%xmm0
+ .byte 15,40,128,4,172,0,0 // movaps 0xac04(%eax),%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,214,171,0,0 // movaps 0xabd6(%eax),%xmm5
+ .byte 15,40,168,196,171,0,0 // movaps 0xabc4(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,38,172,0,0 // movaps 0xac26(%eax),%xmm3
+ .byte 15,40,152,20,172,0,0 // movaps 0xac14(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -64479,7 +64434,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,249 // movaps %xmm1,%xmm7
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 2351 <_sk_rgb_to_hsl_sse2+0x15>
+ .byte 232,0,0,0,0 // call 2353 <_sk_rgb_to_hsl_sse2+0x15>
.byte 88 // pop %eax
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,95,194 // maxps %xmm2,%xmm0
@@ -64493,14 +64448,14 @@ _sk_rgb_to_hsl_sse2:
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,136,175,169,0,0 // movaps 0xa9af(%eax),%xmm1
+ .byte 15,40,136,157,169,0,0 // movaps 0xa99d(%eax),%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,63,171,0,0 // andps 0xab3f(%eax),%xmm5
+ .byte 15,84,168,45,171,0,0 // andps 0xab2d(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
@@ -64510,9 +64465,9 @@ _sk_rgb_to_hsl_sse2:
.byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,136,79,171,0,0 // movaps 0xab4f(%eax),%xmm1
+ .byte 15,40,136,61,171,0,0 // movaps 0xab3d(%eax),%xmm1
.byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,160,95,171,0,0 // addps 0xab5f(%eax),%xmm4
+ .byte 15,88,160,77,171,0,0 // addps 0xab4d(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
@@ -64524,7 +64479,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,168,159,169,0,0 // movaps 0xa99f(%eax),%xmm5
+ .byte 15,40,168,141,169,0,0 // movaps 0xa98d(%eax),%xmm5
.byte 15,92,202 // subps %xmm2,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
@@ -64534,7 +64489,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,86,233 // orps %xmm1,%xmm5
.byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,111,171,0,0 // mulps 0xab6f(%eax),%xmm0
+ .byte 15,89,128,93,171,0,0 // mulps 0xab5d(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -64557,9 +64512,9 @@ _sk_hsl_to_rgb_sse2:
.byte 129,236,200,0,0,0 // sub $0xc8,%esp
.byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp)
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 244c <_sk_hsl_to_rgb_sse2+0x19>
+ .byte 232,0,0,0,0 // call 244e <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,160,164,168,0,0 // movaps 0xa8a4(%eax),%xmm4
+ .byte 15,40,160,146,168,0,0 // movaps 0xa892(%eax),%xmm4
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,194,218,2 // cmpleps %xmm2,%xmm3
@@ -64572,13 +64527,13 @@ _sk_hsl_to_rgb_sse2:
.byte 15,84,243 // andps %xmm3,%xmm6
.byte 15,85,217 // andnps %xmm1,%xmm3
.byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,132,170,0,0 // movaps 0xaa84(%eax),%xmm5
+ .byte 15,40,168,114,170,0,0 // movaps 0xaa72(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,180,168,0,0 // movaps 0xa8b4(%eax),%xmm6
+ .byte 15,40,176,162,168,0,0 // movaps 0xa8a2(%eax),%xmm6
.byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,200 // subps %xmm0,%xmm1
@@ -64588,19 +64543,19 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,148,170,0,0 // movaps 0xaa94(%eax),%xmm7
+ .byte 15,40,184,130,170,0,0 // movaps 0xaa82(%eax),%xmm7
.byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
.byte 15,194,253,2 // cmpleps %xmm5,%xmm7
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,116,170,0,0 // movaps 0xaa74(%eax),%xmm4
+ .byte 15,40,160,98,170,0,0 // movaps 0xaa62(%eax),%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,68,170,0,0 // movaps 0xaa44(%eax),%xmm6
+ .byte 15,40,176,50,170,0,0 // movaps 0xaa32(%eax),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,100,170,0,0 // movaps 0xaa64(%eax),%xmm0
+ .byte 15,40,128,82,170,0,0 // movaps 0xaa52(%eax),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -64626,18 +64581,18 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,180,168,0,0 // andps 0xa8b4(%eax),%xmm1
+ .byte 15,84,136,162,168,0,0 // andps 0xa8a2(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,148,170,0,0 // movaps 0xaa94(%eax),%xmm0
+ .byte 15,40,128,130,170,0,0 // movaps 0xaa82(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,164,168,0,0 // movaps 0xa8a4(%eax),%xmm3
+ .byte 15,40,152,146,168,0,0 // movaps 0xa892(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,116,170,0,0 // movaps 0xaa74(%eax),%xmm4
+ .byte 15,40,160,98,170,0,0 // movaps 0xaa62(%eax),%xmm4
.byte 15,194,225,2 // cmpleps %xmm1,%xmm4
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,100,170,0,0 // movaps 0xaa64(%eax),%xmm5
+ .byte 15,40,168,82,170,0,0 // movaps 0xaa52(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
@@ -64657,7 +64612,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,85,252 // andnps %xmm4,%xmm7
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,164,170,0,0 // addps 0xaaa4(%eax),%xmm3
+ .byte 15,88,152,146,170,0,0 // addps 0xaa92(%eax),%xmm3
.byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -64744,7 +64699,7 @@ _sk_scale_u8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 26c6 <_sk_scale_u8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 26c8 <_sk_scale_u8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64755,13 +64710,13 @@ _sk_scale_u8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,65 // jne 2722 <_sk_scale_u8_sse2+0x6a>
+ .byte 117,65 // jne 2724 <_sk_scale_u8_sse2+0x6a>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,250,166,0,0 // pand 0xa6fa(%edx),%xmm4
+ .byte 102,15,219,162,232,166,0,0 // pand 0xa6e8(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,58,168,0,0 // mulps 0xa83a(%edx),%xmm4
+ .byte 15,89,162,40,168,0,0 // mulps 0xa828(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
@@ -64780,12 +64735,12 @@ _sk_scale_u8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 275c <_sk_scale_u8_sse2+0xa4>
+ .byte 116,50 // je 275e <_sk_scale_u8_sse2+0xa4>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 2746 <_sk_scale_u8_sse2+0x8e>
+ .byte 116,19 // je 2748 <_sk_scale_u8_sse2+0x8e>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,182 // jne 26ee <_sk_scale_u8_sse2+0x36>
+ .byte 117,182 // jne 26f0 <_sk_scale_u8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -64794,10 +64749,10 @@ _sk_scale_u8_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,146 // jmp 26ee <_sk_scale_u8_sse2+0x36>
+ .byte 235,146 // jmp 26f0 <_sk_scale_u8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,136 // jmp 26ee <_sk_scale_u8_sse2+0x36>
+ .byte 235,136 // jmp 26f0 <_sk_scale_u8_sse2+0x36>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -64812,7 +64767,7 @@ _sk_scale_565_sse2:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 2780 <_sk_scale_565_sse2+0x1a>
+ .byte 232,0,0,0,0 // call 2782 <_sk_scale_565_sse2+0x1a>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64824,20 +64779,20 @@ _sk_scale_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,157,0,0,0 // jne 283e <_sk_scale_565_sse2+0xd8>
+ .byte 15,133,157,0,0,0 // jne 2840 <_sk_scale_565_sse2+0xd8>
.byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,144,167,0,0 // movdqa 0xa790(%edx),%xmm4
+ .byte 102,15,111,162,126,167,0,0 // movdqa 0xa77e(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,146,160,167,0,0 // mulps 0xa7a0(%edx),%xmm2
- .byte 102,15,111,170,176,167,0,0 // movdqa 0xa7b0(%edx),%xmm5
+ .byte 15,89,146,142,167,0,0 // mulps 0xa78e(%edx),%xmm2
+ .byte 102,15,111,170,158,167,0,0 // movdqa 0xa79e(%edx),%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,192,167,0,0 // mulps 0xa7c0(%edx),%xmm5
- .byte 102,15,219,178,208,167,0,0 // pand 0xa7d0(%edx),%xmm6
+ .byte 15,89,170,174,167,0,0 // mulps 0xa7ae(%edx),%xmm5
+ .byte 102,15,219,178,190,167,0,0 // pand 0xa7be(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,224,167,0,0 // mulps 0xa7e0(%edx),%xmm6
+ .byte 15,89,178,206,167,0,0 // mulps 0xa7ce(%edx),%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,40,226 // movaps %xmm2,%xmm4
@@ -64872,22 +64827,22 @@ _sk_scale_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 2879 <_sk_scale_565_sse2+0x113>
+ .byte 116,51 // je 287b <_sk_scale_565_sse2+0x113>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 2866 <_sk_scale_565_sse2+0x100>
+ .byte 116,23 // je 2868 <_sk_scale_565_sse2+0x100>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,82,255,255,255 // jne 27aa <_sk_scale_565_sse2+0x44>
+ .byte 15,133,82,255,255,255 // jne 27ac <_sk_scale_565_sse2+0x44>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,49,255,255,255 // jmp 27aa <_sk_scale_565_sse2+0x44>
+ .byte 233,49,255,255,255 // jmp 27ac <_sk_scale_565_sse2+0x44>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,246 // movd %esi,%xmm6
- .byte 233,36,255,255,255 // jmp 27aa <_sk_scale_565_sse2+0x44>
+ .byte 233,36,255,255,255 // jmp 27ac <_sk_scale_565_sse2+0x44>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -64936,7 +64891,7 @@ _sk_lerp_u8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 28ee <_sk_lerp_u8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 28f0 <_sk_lerp_u8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -64947,13 +64902,13 @@ _sk_lerp_u8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 296f <_sk_lerp_u8_sse2+0x8f>
+ .byte 117,102 // jne 2971 <_sk_lerp_u8_sse2+0x8f>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,210,164,0,0 // pand 0xa4d2(%edx),%xmm4
+ .byte 102,15,219,162,192,164,0,0 // pand 0xa4c0(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,18,166,0,0 // mulps 0xa612(%edx),%xmm4
+ .byte 15,89,162,0,166,0,0 // mulps 0xa600(%edx),%xmm4
.byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -64983,12 +64938,12 @@ _sk_lerp_u8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,53 // je 29ac <_sk_lerp_u8_sse2+0xcc>
+ .byte 116,53 // je 29ae <_sk_lerp_u8_sse2+0xcc>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 2993 <_sk_lerp_u8_sse2+0xb3>
+ .byte 116,19 // je 2995 <_sk_lerp_u8_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,145 // jne 2916 <_sk_lerp_u8_sse2+0x36>
+ .byte 117,145 // jne 2918 <_sk_lerp_u8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -64997,10 +64952,10 @@ _sk_lerp_u8_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,106,255,255,255 // jmp 2916 <_sk_lerp_u8_sse2+0x36>
+ .byte 233,106,255,255,255 // jmp 2918 <_sk_lerp_u8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,93,255,255,255 // jmp 2916 <_sk_lerp_u8_sse2+0x36>
+ .byte 233,93,255,255,255 // jmp 2918 <_sk_lerp_u8_sse2+0x36>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -65016,7 +64971,7 @@ _sk_lerp_565_sse2:
.byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
.byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 29d8 <_sk_lerp_565_sse2+0x1f>
+ .byte 232,0,0,0,0 // call 29da <_sk_lerp_565_sse2+0x1f>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65028,20 +64983,20 @@ _sk_lerp_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,211,0,0,0 // jne 2acc <_sk_lerp_565_sse2+0x113>
+ .byte 15,133,211,0,0,0 // jne 2ace <_sk_lerp_565_sse2+0x113>
.byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 102,15,111,162,56,165,0,0 // movdqa 0xa538(%edx),%xmm4
+ .byte 102,15,111,162,38,165,0,0 // movdqa 0xa526(%edx),%xmm4
.byte 102,15,219,229 // pand %xmm5,%xmm4
.byte 15,91,204 // cvtdq2ps %xmm4,%xmm1
- .byte 15,89,138,72,165,0,0 // mulps 0xa548(%edx),%xmm1
- .byte 102,15,111,178,88,165,0,0 // movdqa 0xa558(%edx),%xmm6
+ .byte 15,89,138,54,165,0,0 // mulps 0xa536(%edx),%xmm1
+ .byte 102,15,111,178,70,165,0,0 // movdqa 0xa546(%edx),%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,104,165,0,0 // mulps 0xa568(%edx),%xmm6
- .byte 102,15,219,170,120,165,0,0 // pand 0xa578(%edx),%xmm5
+ .byte 15,89,178,86,165,0,0 // mulps 0xa556(%edx),%xmm6
+ .byte 102,15,219,170,102,165,0,0 // pand 0xa566(%edx),%xmm5
.byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,146,136,165,0,0 // mulps 0xa588(%edx),%xmm2
+ .byte 15,89,146,118,165,0,0 // mulps 0xa576(%edx),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -65091,22 +65046,22 @@ _sk_lerp_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 2b07 <_sk_lerp_565_sse2+0x14e>
+ .byte 116,51 // je 2b09 <_sk_lerp_565_sse2+0x14e>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 2af4 <_sk_lerp_565_sse2+0x13b>
+ .byte 116,23 // je 2af6 <_sk_lerp_565_sse2+0x13b>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,28,255,255,255 // jne 2a02 <_sk_lerp_565_sse2+0x49>
+ .byte 15,133,28,255,255,255 // jne 2a04 <_sk_lerp_565_sse2+0x49>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,236,69 // pshufd $0x45,%xmm4,%xmm5
.byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,236 // movsd %xmm4,%xmm5
- .byte 233,251,254,255,255 // jmp 2a02 <_sk_lerp_565_sse2+0x49>
+ .byte 233,251,254,255,255 // jmp 2a04 <_sk_lerp_565_sse2+0x49>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,238 // movd %esi,%xmm5
- .byte 233,238,254,255,255 // jmp 2a02 <_sk_lerp_565_sse2+0x49>
+ .byte 233,238,254,255,255 // jmp 2a04 <_sk_lerp_565_sse2+0x49>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -65118,7 +65073,7 @@ _sk_load_tables_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2b22 <_sk_load_tables_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2b24 <_sk_load_tables_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65127,9 +65082,9 @@ _sk_load_tables_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,57 // mov (%ecx),%edi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,22,1,0,0 // jne 2c50 <_sk_load_tables_sse2+0x13c>
+ .byte 15,133,22,1,0,0 // jne 2c52 <_sk_load_tables_sse2+0x13c>
.byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,158,162,0,0 // movdqa 0xa29e(%edx),%xmm2
+ .byte 102,15,111,146,140,162,0,0 // movdqa 0xa28c(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -65185,7 +65140,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,222,163,0,0 // mulps 0xa3de(%edx),%xmm3
+ .byte 15,89,154,204,163,0,0 // mulps 0xa3cc(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -65201,18 +65156,18 @@ _sk_load_tables_sse2:
.byte 195 // ret
.byte 36,3 // and $0x3,%al
.byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 2c7b <_sk_load_tables_sse2+0x167>
+ .byte 116,37 // je 2c7d <_sk_load_tables_sse2+0x167>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2c71 <_sk_load_tables_sse2+0x15d>
+ .byte 116,19 // je 2c73 <_sk_load_tables_sse2+0x15d>
.byte 60,3 // cmp $0x3,%al
- .byte 15,133,217,254,255,255 // jne 2b3f <_sk_load_tables_sse2+0x2b>
+ .byte 15,133,217,254,255,255 // jne 2b41 <_sk_load_tables_sse2+0x2b>
.byte 102,15,110,68,187,8 // movd 0x8(%ebx,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,187 // movlpd (%ebx,%edi,4),%xmm3
- .byte 233,196,254,255,255 // jmp 2b3f <_sk_load_tables_sse2+0x2b>
+ .byte 233,196,254,255,255 // jmp 2b41 <_sk_load_tables_sse2+0x2b>
.byte 102,15,110,28,187 // movd (%ebx,%edi,4),%xmm3
- .byte 233,186,254,255,255 // jmp 2b3f <_sk_load_tables_sse2+0x2b>
+ .byte 233,186,254,255,255 // jmp 2b41 <_sk_load_tables_sse2+0x2b>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -65224,7 +65179,7 @@ _sk_load_tables_u16_be_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,44 // sub $0x2c,%esp
- .byte 232,0,0,0,0 // call 2c93 <_sk_load_tables_u16_be_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2c95 <_sk_load_tables_u16_be_sse2+0xe>
.byte 90 // pop %edx
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65234,7 +65189,7 @@ _sk_load_tables_u16_be_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,54 // mov (%esi),%esi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,210,1,0,0 // jne 2e80 <_sk_load_tables_u16_be_sse2+0x1fb>
+ .byte 15,133,210,1,0,0 // jne 2e82 <_sk_load_tables_u16_be_sse2+0x1fb>
.byte 102,15,16,4,123 // movupd (%ebx,%edi,2),%xmm0
.byte 243,15,111,76,123,16 // movdqu 0x10(%ebx,%edi,2),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -65260,7 +65215,7 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,221,162,0,0 // movdqa 0xa2dd(%edx),%xmm2
+ .byte 102,15,111,146,203,162,0,0 // movdqa 0xa2cb(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
@@ -65332,7 +65287,7 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3
.byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,237,162,0,0 // mulps 0xa2ed(%edx),%xmm3
+ .byte 15,89,154,219,162,0,0 // mulps 0xa2db(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -65349,12 +65304,12 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,16,4,123 // movsd (%ebx,%edi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,248,1 // cmp $0x1,%eax
- .byte 15,132,39,254,255,255 // je 2cb9 <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 15,132,39,254,255,255 // je 2cbb <_sk_load_tables_u16_be_sse2+0x34>
.byte 102,15,22,68,123,8 // movhpd 0x8(%ebx,%edi,2),%xmm0
.byte 131,248,3 // cmp $0x3,%eax
- .byte 15,130,24,254,255,255 // jb 2cb9 <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 15,130,24,254,255,255 // jb 2cbb <_sk_load_tables_u16_be_sse2+0x34>
.byte 243,15,126,76,123,16 // movq 0x10(%ebx,%edi,2),%xmm1
- .byte 233,13,254,255,255 // jmp 2cb9 <_sk_load_tables_u16_be_sse2+0x34>
+ .byte 233,13,254,255,255 // jmp 2cbb <_sk_load_tables_u16_be_sse2+0x34>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -65366,7 +65321,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,28 // sub $0x1c,%esp
- .byte 232,0,0,0,0 // call 2eba <_sk_load_tables_rgb_u16_be_sse2+0xe>
+ .byte 232,0,0,0,0 // call 2ebc <_sk_load_tables_rgb_u16_be_sse2+0xe>
.byte 90 // pop %edx
.byte 139,117,12 // mov 0xc(%ebp),%esi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -65375,7 +65330,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 133,192 // test %eax,%eax
.byte 139,54 // mov (%esi),%esi
.byte 139,30 // mov (%esi),%ebx
- .byte 15,133,179,1,0,0 // jne 3086 <_sk_load_tables_rgb_u16_be_sse2+0x1da>
+ .byte 15,133,179,1,0,0 // jne 3088 <_sk_load_tables_rgb_u16_be_sse2+0x1da>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
.byte 243,15,111,92,123,8 // movdqu 0x8(%ebx,%edi,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -65405,7 +65360,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,182,160,0,0 // movdqa 0xa0b6(%edx),%xmm2
+ .byte 102,15,111,146,164,160,0,0 // movdqa 0xa0a4(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
@@ -65470,7 +65425,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 137,198 // mov %eax,%esi
.byte 141,70,8 // lea 0x8(%esi),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,70,158,0,0 // movaps 0x9e46(%edx),%xmm3
+ .byte 15,40,154,52,158,0,0 // movaps 0x9e34(%edx),%xmm3
.byte 80 // push %eax
.byte 81 // push %ecx
.byte 255,86,4 // call *0x4(%esi)
@@ -65484,20 +65439,20 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 131,248,1 // cmp $0x1,%eax
- .byte 117,13 // jne 30a8 <_sk_load_tables_rgb_u16_be_sse2+0x1fc>
+ .byte 117,13 // jne 30aa <_sk_load_tables_rgb_u16_be_sse2+0x1fc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,77,254,255,255 // jmp 2ef5 <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,77,254,255,255 // jmp 2ef7 <_sk_load_tables_rgb_u16_be_sse2+0x49>
.byte 102,15,110,76,123,6 // movd 0x6(%ebx,%edi,2),%xmm1
.byte 102,15,196,76,123,10,2 // pinsrw $0x2,0xa(%ebx,%edi,2),%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 131,248,3 // cmp $0x3,%eax
- .byte 114,18 // jb 30d0 <_sk_load_tables_rgb_u16_be_sse2+0x224>
+ .byte 114,18 // jb 30d2 <_sk_load_tables_rgb_u16_be_sse2+0x224>
.byte 102,15,110,92,123,12 // movd 0xc(%ebx,%edi,2),%xmm3
.byte 102,15,196,92,123,16,2 // pinsrw $0x2,0x10(%ebx,%edi,2),%xmm3
- .byte 233,37,254,255,255 // jmp 2ef5 <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,37,254,255,255 // jmp 2ef7 <_sk_load_tables_rgb_u16_be_sse2+0x49>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,28,254,255,255 // jmp 2ef5 <_sk_load_tables_rgb_u16_be_sse2+0x49>
+ .byte 233,28,254,255,255 // jmp 2ef7 <_sk_load_tables_rgb_u16_be_sse2+0x49>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -65509,11 +65464,11 @@ _sk_byte_tables_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 30e7 <_sk_byte_tables_sse2+0xe>
+ .byte 232,0,0,0,0 // call 30e9 <_sk_byte_tables_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 15,40,162,233,156,0,0 // movaps 0x9ce9(%edx),%xmm4
+ .byte 15,40,162,215,156,0,0 // movaps 0x9cd7(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -65535,7 +65490,7 @@ _sk_byte_tables_sse2:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 139,65,4 // mov 0x4(%ecx),%eax
.byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0
- .byte 15,40,170,25,158,0,0 // movaps 0x9e19(%edx),%xmm5
+ .byte 15,40,170,7,158,0,0 // movaps 0x9e07(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -65660,12 +65615,12 @@ _sk_byte_tables_rgb_sse2:
.byte 15,182,60,31 // movzbl (%edi,%ebx,1),%edi
.byte 193,231,8 // shl $0x8,%edi
.byte 9,215 // or %edx,%edi
- .byte 232,0,0,0,0 // call 32e3 <_sk_byte_tables_rgb_sse2+0x65>
+ .byte 232,0,0,0,0 // call 32e5 <_sk_byte_tables_rgb_sse2+0x65>
.byte 90 // pop %edx
.byte 102,15,110,199 // movd %edi,%xmm0
.byte 139,121,4 // mov 0x4(%ecx),%edi
.byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0
- .byte 15,40,170,29,156,0,0 // movaps 0x9c1d(%edx),%xmm5
+ .byte 15,40,170,11,156,0,0 // movaps 0x9c0b(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -65901,7 +65856,7 @@ _sk_parametric_r_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 35b3 <_sk_parametric_r_sse2+0x18>
+ .byte 232,0,0,0,0 // call 35b5 <_sk_parametric_r_sse2+0x18>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -65921,15 +65876,15 @@ _sk_parametric_r_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,221,153,0,0 // mulps 0x99dd(%edx),%xmm5
- .byte 15,84,178,237,153,0,0 // andps 0x99ed(%edx),%xmm6
- .byte 15,86,178,61,151,0,0 // orps 0x973d(%edx),%xmm6
- .byte 15,88,170,253,153,0,0 // addps 0x99fd(%edx),%xmm5
- .byte 15,40,186,13,154,0,0 // movaps 0x9a0d(%edx),%xmm7
+ .byte 15,89,170,203,153,0,0 // mulps 0x99cb(%edx),%xmm5
+ .byte 15,84,178,219,153,0,0 // andps 0x99db(%edx),%xmm6
+ .byte 15,86,178,43,151,0,0 // orps 0x972b(%edx),%xmm6
+ .byte 15,88,170,235,153,0,0 // addps 0x99eb(%edx),%xmm5
+ .byte 15,40,186,251,153,0,0 // movaps 0x99fb(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,29,154,0,0 // addps 0x9a1d(%edx),%xmm6
- .byte 15,40,186,45,154,0,0 // movaps 0x9a2d(%edx),%xmm7
+ .byte 15,88,178,11,154,0,0 // addps 0x9a0b(%edx),%xmm6
+ .byte 15,40,186,27,154,0,0 // movaps 0x9a1b(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -65939,21 +65894,21 @@ _sk_parametric_r_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,77,151,0,0 // movaps 0x974d(%edx),%xmm6
+ .byte 15,40,178,59,151,0,0 // movaps 0x973b(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,61,154,0,0 // addps 0x9a3d(%edx),%xmm5
- .byte 15,40,186,77,154,0,0 // movaps 0x9a4d(%edx),%xmm7
+ .byte 15,88,170,43,154,0,0 // addps 0x9a2b(%edx),%xmm5
+ .byte 15,40,186,59,154,0,0 // movaps 0x9a3b(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,93,154,0,0 // movaps 0x9a5d(%edx),%xmm7
+ .byte 15,40,186,75,154,0,0 // movaps 0x9a4b(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,109,154,0,0 // movaps 0x9a6d(%edx),%xmm0
+ .byte 15,40,130,91,154,0,0 // movaps 0x9a5b(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,125,154,0,0 // mulps 0x9a7d(%edx),%xmm0
+ .byte 15,89,130,107,154,0,0 // mulps 0x9a6b(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -65987,7 +65942,7 @@ _sk_parametric_g_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 36ea <_sk_parametric_g_sse2+0x15>
+ .byte 232,0,0,0,0 // call 36ec <_sk_parametric_g_sse2+0x15>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -66007,15 +65962,15 @@ _sk_parametric_g_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,166,152,0,0 // mulps 0x98a6(%edx),%xmm5
- .byte 15,84,178,182,152,0,0 // andps 0x98b6(%edx),%xmm6
- .byte 15,86,178,6,150,0,0 // orps 0x9606(%edx),%xmm6
- .byte 15,88,170,198,152,0,0 // addps 0x98c6(%edx),%xmm5
- .byte 15,40,186,214,152,0,0 // movaps 0x98d6(%edx),%xmm7
+ .byte 15,89,170,148,152,0,0 // mulps 0x9894(%edx),%xmm5
+ .byte 15,84,178,164,152,0,0 // andps 0x98a4(%edx),%xmm6
+ .byte 15,86,178,244,149,0,0 // orps 0x95f4(%edx),%xmm6
+ .byte 15,88,170,180,152,0,0 // addps 0x98b4(%edx),%xmm5
+ .byte 15,40,186,196,152,0,0 // movaps 0x98c4(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,230,152,0,0 // addps 0x98e6(%edx),%xmm6
- .byte 15,40,186,246,152,0,0 // movaps 0x98f6(%edx),%xmm7
+ .byte 15,88,178,212,152,0,0 // addps 0x98d4(%edx),%xmm6
+ .byte 15,40,186,228,152,0,0 // movaps 0x98e4(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -66025,21 +65980,21 @@ _sk_parametric_g_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,22,150,0,0 // movaps 0x9616(%edx),%xmm6
+ .byte 15,40,178,4,150,0,0 // movaps 0x9604(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,6,153,0,0 // addps 0x9906(%edx),%xmm5
- .byte 15,40,186,22,153,0,0 // movaps 0x9916(%edx),%xmm7
+ .byte 15,88,170,244,152,0,0 // addps 0x98f4(%edx),%xmm5
+ .byte 15,40,186,4,153,0,0 // movaps 0x9904(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,38,153,0,0 // movaps 0x9926(%edx),%xmm7
+ .byte 15,40,186,20,153,0,0 // movaps 0x9914(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,54,153,0,0 // movaps 0x9936(%edx),%xmm0
+ .byte 15,40,130,36,153,0,0 // movaps 0x9924(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,70,153,0,0 // mulps 0x9946(%edx),%xmm0
+ .byte 15,89,130,52,153,0,0 // mulps 0x9934(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -66072,7 +66027,7 @@ _sk_parametric_b_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 381e <_sk_parametric_b_sse2+0x15>
+ .byte 232,0,0,0,0 // call 3820 <_sk_parametric_b_sse2+0x15>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -66092,15 +66047,15 @@ _sk_parametric_b_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,114,151,0,0 // mulps 0x9772(%edx),%xmm5
- .byte 15,84,178,130,151,0,0 // andps 0x9782(%edx),%xmm6
- .byte 15,86,178,210,148,0,0 // orps 0x94d2(%edx),%xmm6
- .byte 15,88,170,146,151,0,0 // addps 0x9792(%edx),%xmm5
- .byte 15,40,186,162,151,0,0 // movaps 0x97a2(%edx),%xmm7
+ .byte 15,89,170,96,151,0,0 // mulps 0x9760(%edx),%xmm5
+ .byte 15,84,178,112,151,0,0 // andps 0x9770(%edx),%xmm6
+ .byte 15,86,178,192,148,0,0 // orps 0x94c0(%edx),%xmm6
+ .byte 15,88,170,128,151,0,0 // addps 0x9780(%edx),%xmm5
+ .byte 15,40,186,144,151,0,0 // movaps 0x9790(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,178,151,0,0 // addps 0x97b2(%edx),%xmm6
- .byte 15,40,186,194,151,0,0 // movaps 0x97c2(%edx),%xmm7
+ .byte 15,88,178,160,151,0,0 // addps 0x97a0(%edx),%xmm6
+ .byte 15,40,186,176,151,0,0 // movaps 0x97b0(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -66110,21 +66065,21 @@ _sk_parametric_b_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,226,148,0,0 // movaps 0x94e2(%edx),%xmm6
+ .byte 15,40,178,208,148,0,0 // movaps 0x94d0(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,210,151,0,0 // addps 0x97d2(%edx),%xmm5
- .byte 15,40,186,226,151,0,0 // movaps 0x97e2(%edx),%xmm7
+ .byte 15,88,170,192,151,0,0 // addps 0x97c0(%edx),%xmm5
+ .byte 15,40,186,208,151,0,0 // movaps 0x97d0(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,242,151,0,0 // movaps 0x97f2(%edx),%xmm7
+ .byte 15,40,186,224,151,0,0 // movaps 0x97e0(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,2,152,0,0 // movaps 0x9802(%edx),%xmm0
+ .byte 15,40,130,240,151,0,0 // movaps 0x97f0(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,18,152,0,0 // mulps 0x9812(%edx),%xmm0
+ .byte 15,89,130,0,152,0,0 // mulps 0x9800(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -66157,7 +66112,7 @@ _sk_parametric_a_sse2:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 3952 <_sk_parametric_a_sse2+0x15>
+ .byte 232,0,0,0,0 // call 3954 <_sk_parametric_a_sse2+0x15>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -66177,15 +66132,15 @@ _sk_parametric_a_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,62,150,0,0 // mulps 0x963e(%edx),%xmm5
- .byte 15,84,178,78,150,0,0 // andps 0x964e(%edx),%xmm6
- .byte 15,86,178,158,147,0,0 // orps 0x939e(%edx),%xmm6
- .byte 15,88,170,94,150,0,0 // addps 0x965e(%edx),%xmm5
- .byte 15,40,186,110,150,0,0 // movaps 0x966e(%edx),%xmm7
+ .byte 15,89,170,44,150,0,0 // mulps 0x962c(%edx),%xmm5
+ .byte 15,84,178,60,150,0,0 // andps 0x963c(%edx),%xmm6
+ .byte 15,86,178,140,147,0,0 // orps 0x938c(%edx),%xmm6
+ .byte 15,88,170,76,150,0,0 // addps 0x964c(%edx),%xmm5
+ .byte 15,40,186,92,150,0,0 // movaps 0x965c(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,126,150,0,0 // addps 0x967e(%edx),%xmm6
- .byte 15,40,186,142,150,0,0 // movaps 0x968e(%edx),%xmm7
+ .byte 15,88,178,108,150,0,0 // addps 0x966c(%edx),%xmm6
+ .byte 15,40,186,124,150,0,0 // movaps 0x967c(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -66195,21 +66150,21 @@ _sk_parametric_a_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,174,147,0,0 // movaps 0x93ae(%edx),%xmm6
+ .byte 15,40,178,156,147,0,0 // movaps 0x939c(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,158,150,0,0 // addps 0x969e(%edx),%xmm5
- .byte 15,40,186,174,150,0,0 // movaps 0x96ae(%edx),%xmm7
+ .byte 15,88,170,140,150,0,0 // addps 0x968c(%edx),%xmm5
+ .byte 15,40,186,156,150,0,0 // movaps 0x969c(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,190,150,0,0 // movaps 0x96be(%edx),%xmm7
+ .byte 15,40,186,172,150,0,0 // movaps 0x96ac(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,206,150,0,0 // movaps 0x96ce(%edx),%xmm0
+ .byte 15,40,130,188,150,0,0 // movaps 0x96bc(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,222,150,0,0 // mulps 0x96de(%edx),%xmm0
+ .byte 15,89,130,204,150,0,0 // mulps 0x96cc(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -66241,18 +66196,18 @@ _sk_gamma_sse2:
.byte 131,236,40 // sub $0x28,%esp
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 3a83 <_sk_gamma_sse2+0x12>
+ .byte 232,0,0,0,0 // call 3a85 <_sk_gamma_sse2+0x12>
.byte 88 // pop %eax
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,128,13,149,0,0 // mulps 0x950d(%eax),%xmm0
- .byte 15,84,152,29,149,0,0 // andps 0x951d(%eax),%xmm3
- .byte 15,86,152,109,146,0,0 // orps 0x926d(%eax),%xmm3
- .byte 15,88,128,45,149,0,0 // addps 0x952d(%eax),%xmm0
+ .byte 15,89,128,251,148,0,0 // mulps 0x94fb(%eax),%xmm0
+ .byte 15,84,152,11,149,0,0 // andps 0x950b(%eax),%xmm3
+ .byte 15,86,152,91,146,0,0 // orps 0x925b(%eax),%xmm3
+ .byte 15,88,128,27,149,0,0 // addps 0x951b(%eax),%xmm0
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,160,61,149,0,0 // mulps 0x953d(%eax),%xmm4
+ .byte 15,89,160,43,149,0,0 // mulps 0x952b(%eax),%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,152,77,149,0,0 // addps 0x954d(%eax),%xmm3
- .byte 15,40,160,93,149,0,0 // movaps 0x955d(%eax),%xmm4
+ .byte 15,88,152,59,149,0,0 // addps 0x953b(%eax),%xmm3
+ .byte 15,40,160,75,149,0,0 // movaps 0x954b(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -66265,30 +66220,30 @@ _sk_gamma_sse2:
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,227,1 // cmpltps %xmm3,%xmm4
- .byte 15,84,160,125,146,0,0 // andps 0x927d(%eax),%xmm4
+ .byte 15,84,160,107,146,0,0 // andps 0x926b(%eax),%xmm4
.byte 15,92,220 // subps %xmm4,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,88,128,109,149,0,0 // addps 0x956d(%eax),%xmm0
- .byte 15,40,176,141,149,0,0 // movaps 0x958d(%eax),%xmm6
+ .byte 15,88,128,91,149,0,0 // addps 0x955b(%eax),%xmm0
+ .byte 15,40,176,123,149,0,0 // movaps 0x957b(%eax),%xmm6
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,168,125,149,0,0 // movaps 0x957d(%eax),%xmm5
+ .byte 15,40,168,107,149,0,0 // movaps 0x956b(%eax),%xmm5
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,152,157,149,0,0 // movaps 0x959d(%eax),%xmm3
+ .byte 15,40,152,139,149,0,0 // movaps 0x958b(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,94,230 // divps %xmm6,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,13,149,0,0 // mulps 0x950d(%eax),%xmm0
- .byte 15,84,136,29,149,0,0 // andps 0x951d(%eax),%xmm1
- .byte 15,86,136,109,146,0,0 // orps 0x926d(%eax),%xmm1
- .byte 15,88,128,45,149,0,0 // addps 0x952d(%eax),%xmm0
+ .byte 15,89,128,251,148,0,0 // mulps 0x94fb(%eax),%xmm0
+ .byte 15,84,136,11,149,0,0 // andps 0x950b(%eax),%xmm1
+ .byte 15,86,136,91,146,0,0 // orps 0x925b(%eax),%xmm1
+ .byte 15,88,128,27,149,0,0 // addps 0x951b(%eax),%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,176,61,149,0,0 // mulps 0x953d(%eax),%xmm6
+ .byte 15,89,176,43,149,0,0 // mulps 0x952b(%eax),%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,136,77,149,0,0 // addps 0x954d(%eax),%xmm1
- .byte 15,40,176,93,149,0,0 // movaps 0x955d(%eax),%xmm6
+ .byte 15,88,136,59,149,0,0 // addps 0x953b(%eax),%xmm1
+ .byte 15,40,176,75,149,0,0 // movaps 0x954b(%eax),%xmm6
.byte 15,94,241 // divps %xmm1,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -66296,12 +66251,12 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,241,1 // cmpltps %xmm1,%xmm6
- .byte 15,84,176,125,146,0,0 // andps 0x927d(%eax),%xmm6
+ .byte 15,84,176,107,146,0,0 // andps 0x926b(%eax),%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,88,128,109,149,0,0 // addps 0x956d(%eax),%xmm0
- .byte 15,40,184,141,149,0,0 // movaps 0x958d(%eax),%xmm7
+ .byte 15,88,128,91,149,0,0 // addps 0x955b(%eax),%xmm0
+ .byte 15,40,184,123,149,0,0 // movaps 0x957b(%eax),%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -66309,15 +66264,15 @@ _sk_gamma_sse2:
.byte 15,94,207 // divps %xmm7,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,128,13,149,0,0 // mulps 0x950d(%eax),%xmm0
- .byte 15,84,144,29,149,0,0 // andps 0x951d(%eax),%xmm2
- .byte 15,86,144,109,146,0,0 // orps 0x926d(%eax),%xmm2
- .byte 15,88,128,45,149,0,0 // addps 0x952d(%eax),%xmm0
- .byte 15,40,176,61,149,0,0 // movaps 0x953d(%eax),%xmm6
+ .byte 15,89,128,251,148,0,0 // mulps 0x94fb(%eax),%xmm0
+ .byte 15,84,144,11,149,0,0 // andps 0x950b(%eax),%xmm2
+ .byte 15,86,144,91,146,0,0 // orps 0x925b(%eax),%xmm2
+ .byte 15,88,128,27,149,0,0 // addps 0x951b(%eax),%xmm0
+ .byte 15,40,176,43,149,0,0 // movaps 0x952b(%eax),%xmm6
.byte 15,89,242 // mulps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,144,77,149,0,0 // addps 0x954d(%eax),%xmm2
- .byte 15,40,176,93,149,0,0 // movaps 0x955d(%eax),%xmm6
+ .byte 15,88,144,59,149,0,0 // addps 0x953b(%eax),%xmm2
+ .byte 15,40,176,75,149,0,0 // movaps 0x954b(%eax),%xmm6
.byte 15,94,242 // divps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
@@ -66325,18 +66280,18 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,242,1 // cmpltps %xmm2,%xmm6
- .byte 15,84,176,125,146,0,0 // andps 0x927d(%eax),%xmm6
+ .byte 15,84,176,107,146,0,0 // andps 0x926b(%eax),%xmm6
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,88,128,109,149,0,0 // addps 0x956d(%eax),%xmm0
+ .byte 15,88,128,91,149,0,0 // addps 0x955b(%eax),%xmm0
.byte 15,89,238 // mulps %xmm6,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,40,144,141,149,0,0 // movaps 0x958d(%eax),%xmm2
+ .byte 15,40,144,123,149,0,0 // movaps 0x957b(%eax),%xmm2
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,94,218 // divps %xmm2,%xmm3
.byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,40,128,173,149,0,0 // movaps 0x95ad(%eax),%xmm0
+ .byte 15,40,128,155,149,0,0 // movaps 0x959b(%eax),%xmm0
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,89,216 // mulps %xmm0,%xmm3
@@ -66363,31 +66318,31 @@ _sk_lab_to_xyz_sse2:
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 3c6b <_sk_lab_to_xyz_sse2+0x15>
+ .byte 232,0,0,0,0 // call 3c6d <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,213,147,0,0 // mulps 0x93d5(%eax),%xmm2
- .byte 15,40,160,101,145,0,0 // movaps 0x9165(%eax),%xmm4
+ .byte 15,89,144,195,147,0,0 // mulps 0x93c3(%eax),%xmm2
+ .byte 15,40,160,83,145,0,0 // movaps 0x9153(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,229,147,0,0 // movaps 0x93e5(%eax),%xmm5
+ .byte 15,40,168,211,147,0,0 // movaps 0x93d3(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,245,147,0,0 // addps 0x93f5(%eax),%xmm2
- .byte 15,89,144,5,148,0,0 // mulps 0x9405(%eax),%xmm2
- .byte 15,89,136,21,148,0,0 // mulps 0x9415(%eax),%xmm1
+ .byte 15,88,144,227,147,0,0 // addps 0x93e3(%eax),%xmm2
+ .byte 15,89,144,243,147,0,0 // mulps 0x93f3(%eax),%xmm2
+ .byte 15,89,136,3,148,0,0 // mulps 0x9403(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,37,148,0,0 // mulps 0x9425(%eax),%xmm3
+ .byte 15,89,152,19,148,0,0 // mulps 0x9413(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,53,148,0,0 // movaps 0x9435(%eax),%xmm3
+ .byte 15,40,152,35,148,0,0 // movaps 0x9423(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,69,148,0,0 // movaps 0x9445(%eax),%xmm6
+ .byte 15,40,176,51,148,0,0 // movaps 0x9433(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,85,148,0,0 // movaps 0x9455(%eax),%xmm7
+ .byte 15,40,184,67,148,0,0 // movaps 0x9443(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -66412,8 +66367,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,85,221 // andnps %xmm5,%xmm3
.byte 15,86,216 // orps %xmm0,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,101,148,0,0 // mulps 0x9465(%eax),%xmm4
- .byte 15,89,152,117,148,0,0 // mulps 0x9475(%eax),%xmm3
+ .byte 15,89,160,83,148,0,0 // mulps 0x9453(%eax),%xmm4
+ .byte 15,89,152,99,148,0,0 // mulps 0x9463(%eax),%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -66436,7 +66391,7 @@ _sk_load_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3d5b <_sk_load_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 3d5d <_sk_load_a8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66447,13 +66402,13 @@ _sk_load_a8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,60 // jne 3db2 <_sk_load_a8_sse2+0x65>
+ .byte 117,60 // jne 3db4 <_sk_load_a8_sse2+0x65>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,101,144,0,0 // pand 0x9065(%edx),%xmm0
+ .byte 102,15,219,130,83,144,0,0 // pand 0x9053(%edx),%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,165,145,0,0 // mulps 0x91a5(%edx),%xmm3
+ .byte 15,89,154,147,145,0,0 // mulps 0x9193(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -66470,12 +66425,12 @@ _sk_load_a8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 3dec <_sk_load_a8_sse2+0x9f>
+ .byte 116,50 // je 3dee <_sk_load_a8_sse2+0x9f>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 3dd6 <_sk_load_a8_sse2+0x89>
+ .byte 116,19 // je 3dd8 <_sk_load_a8_sse2+0x89>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,187 // jne 3d83 <_sk_load_a8_sse2+0x36>
+ .byte 117,187 // jne 3d85 <_sk_load_a8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -66484,10 +66439,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,151 // jmp 3d83 <_sk_load_a8_sse2+0x36>
+ .byte 235,151 // jmp 3d85 <_sk_load_a8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,141 // jmp 3d83 <_sk_load_a8_sse2+0x36>
+ .byte 235,141 // jmp 3d85 <_sk_load_a8_sse2+0x36>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -66512,15 +66467,15 @@ _sk_load_a8_dst_sse2:
.byte 102,15,127,97,32 // movdqa %xmm4,0x20(%ecx)
.byte 102,15,127,97,16 // movdqa %xmm4,0x10(%ecx)
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 3e2f <_sk_load_a8_dst_sse2+0x39>
+ .byte 232,0,0,0,0 // call 3e31 <_sk_load_a8_dst_sse2+0x39>
.byte 90 // pop %edx
- .byte 117,54 // jne 3e68 <_sk_load_a8_dst_sse2+0x72>
+ .byte 117,54 // jne 3e6a <_sk_load_a8_dst_sse2+0x72>
.byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,145,143,0,0 // pand 0x8f91(%edx),%xmm4
+ .byte 102,15,219,162,127,143,0,0 // pand 0x8f7f(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,209,144,0,0 // mulps 0x90d1(%edx),%xmm4
+ .byte 15,89,162,191,144,0,0 // mulps 0x90bf(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66535,11 +66490,11 @@ _sk_load_a8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,46 // je 3e9e <_sk_load_a8_dst_sse2+0xa8>
+ .byte 116,46 // je 3ea0 <_sk_load_a8_dst_sse2+0xa8>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 3e88 <_sk_load_a8_dst_sse2+0x92>
+ .byte 116,19 // je 3e8a <_sk_load_a8_dst_sse2+0x92>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,197 // jne 3e3f <_sk_load_a8_dst_sse2+0x49>
+ .byte 117,197 // jne 3e41 <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,92,55,2 // movzbl 0x2(%edi,%esi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -66548,10 +66503,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,161 // jmp 3e3f <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,161 // jmp 3e41 <_sk_load_a8_dst_sse2+0x49>
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,151 // jmp 3e3f <_sk_load_a8_dst_sse2+0x49>
+ .byte 235,151 // jmp 3e41 <_sk_load_a8_dst_sse2+0x49>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -66605,13 +66560,13 @@ _sk_gather_a8_sse2:
.byte 9,202 // or %ecx,%edx
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
- .byte 232,0,0,0,0 // call 3f5c <_sk_gather_a8_sse2+0xb4>
+ .byte 232,0,0,0,0 // call 3f5e <_sk_gather_a8_sse2+0xb4>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,164,143,0,0 // mulps 0x8fa4(%ecx),%xmm3
+ .byte 15,89,153,146,143,0,0 // mulps 0x8f92(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -66636,7 +66591,7 @@ _sk_store_a8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3fa0 <_sk_store_a8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 3fa2 <_sk_store_a8_sse2+0xe>
.byte 94 // pop %esi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66645,7 +66600,7 @@ _sk_store_a8_sse2:
.byte 15,175,81,4 // imul 0x4(%ecx),%edx
.byte 3,23 // add (%edi),%edx
.byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,166,48,142,0,0 // movaps 0x8e30(%esi),%xmm4
+ .byte 15,40,166,30,142,0,0 // movaps 0x8e1e(%esi),%xmm4
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -66654,7 +66609,7 @@ _sk_store_a8_sse2:
.byte 102,15,103,224 // packuswb %xmm0,%xmm4
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,26 // jne 3ff5 <_sk_store_a8_sse2+0x63>
+ .byte 117,26 // jne 3ff7 <_sk_store_a8_sse2+0x63>
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 137,52,58 // mov %esi,(%edx,%edi,1)
.byte 141,80,8 // lea 0x8(%eax),%edx
@@ -66672,24 +66627,24 @@ _sk_store_a8_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,54 // je 403b <_sk_store_a8_sse2+0xa9>
+ .byte 116,54 // je 403d <_sk_store_a8_sse2+0xa9>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,14 // je 4018 <_sk_store_a8_sse2+0x86>
+ .byte 116,14 // je 401a <_sk_store_a8_sse2+0x86>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 3fe2 <_sk_store_a8_sse2+0x50>
+ .byte 117,211 // jne 3fe4 <_sk_store_a8_sse2+0x50>
.byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx
.byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,80,145,0,0 // pand 0x9150(%esi),%xmm4
+ .byte 102,15,219,166,62,145,0,0 // pand 0x913e(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 102,137,52,58 // mov %si,(%edx,%edi,1)
- .byte 235,167 // jmp 3fe2 <_sk_store_a8_sse2+0x50>
+ .byte 235,167 // jmp 3fe4 <_sk_store_a8_sse2+0x50>
.byte 102,15,126,227 // movd %xmm4,%ebx
.byte 136,28,58 // mov %bl,(%edx,%edi,1)
- .byte 235,158 // jmp 3fe2 <_sk_store_a8_sse2+0x50>
+ .byte 235,158 // jmp 3fe4 <_sk_store_a8_sse2+0x50>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -66701,7 +66656,7 @@ _sk_load_g8_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4052 <_sk_load_g8_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4054 <_sk_load_g8_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66712,16 +66667,16 @@ _sk_load_g8_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,63 // jne 40ac <_sk_load_g8_sse2+0x68>
+ .byte 117,63 // jne 40ae <_sk_load_g8_sse2+0x68>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,110,141,0,0 // pand 0x8d6e(%edx),%xmm0
+ .byte 102,15,219,130,92,141,0,0 // pand 0x8d5c(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,174,142,0,0 // mulps 0x8eae(%edx),%xmm0
+ .byte 15,89,130,156,142,0,0 // mulps 0x8e9c(%edx),%xmm0
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,174,140,0,0 // movaps 0x8cae(%edx),%xmm3
+ .byte 15,40,154,156,140,0,0 // movaps 0x8c9c(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 86 // push %esi
@@ -66735,12 +66690,12 @@ _sk_load_g8_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 40e6 <_sk_load_g8_sse2+0xa2>
+ .byte 116,50 // je 40e8 <_sk_load_g8_sse2+0xa2>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 40d0 <_sk_load_g8_sse2+0x8c>
+ .byte 116,19 // je 40d2 <_sk_load_g8_sse2+0x8c>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,184 // jne 407a <_sk_load_g8_sse2+0x36>
+ .byte 117,184 // jne 407c <_sk_load_g8_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -66749,10 +66704,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,148 // jmp 407a <_sk_load_g8_sse2+0x36>
+ .byte 235,148 // jmp 407c <_sk_load_g8_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,138 // jmp 407a <_sk_load_g8_sse2+0x36>
+ .byte 235,138 // jmp 407c <_sk_load_g8_sse2+0x36>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -66764,7 +66719,7 @@ _sk_load_g8_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 40fe <_sk_load_g8_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4100 <_sk_load_g8_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66775,17 +66730,17 @@ _sk_load_g8_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,73 // jne 4162 <_sk_load_g8_dst_sse2+0x72>
+ .byte 117,73 // jne 4164 <_sk_load_g8_dst_sse2+0x72>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,194,140,0,0 // pand 0x8cc2(%edx),%xmm4
+ .byte 102,15,219,162,176,140,0,0 // pand 0x8cb0(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,2,142,0,0 // mulps 0x8e02(%edx),%xmm4
+ .byte 15,89,162,240,141,0,0 // mulps 0x8df0(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
.byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,2,140,0,0 // movaps 0x8c02(%edx),%xmm4
+ .byte 15,40,162,240,139,0,0 // movaps 0x8bf0(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66800,12 +66755,12 @@ _sk_load_g8_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 419c <_sk_load_g8_dst_sse2+0xac>
+ .byte 116,50 // je 419e <_sk_load_g8_dst_sse2+0xac>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4186 <_sk_load_g8_dst_sse2+0x96>
+ .byte 116,19 // je 4188 <_sk_load_g8_dst_sse2+0x96>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,174 // jne 4126 <_sk_load_g8_dst_sse2+0x36>
+ .byte 117,174 // jne 4128 <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -66814,10 +66769,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,138 // jmp 4126 <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,138 // jmp 4128 <_sk_load_g8_dst_sse2+0x36>
.byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,128 // jmp 4126 <_sk_load_g8_dst_sse2+0x36>
+ .byte 235,128 // jmp 4128 <_sk_load_g8_dst_sse2+0x36>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -66870,17 +66825,17 @@ _sk_gather_g8_sse2:
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
.byte 102,15,110,194 // movd %edx,%xmm0
- .byte 232,0,0,0,0 // call 4255 <_sk_gather_g8_sse2+0xaf>
+ .byte 232,0,0,0,0 // call 4257 <_sk_gather_g8_sse2+0xaf>
.byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,171,140,0,0 // mulps 0x8cab(%ecx),%xmm0
+ .byte 15,89,129,153,140,0,0 // mulps 0x8c99(%ecx),%xmm0
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,171,138,0,0 // movaps 0x8aab(%ecx),%xmm3
+ .byte 15,40,153,153,138,0,0 // movaps 0x8a99(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 82 // push %edx
@@ -66902,7 +66857,7 @@ _sk_load_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 42a0 <_sk_load_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 42a2 <_sk_load_565_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66914,23 +66869,23 @@ _sk_load_565_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,97 // jne 431e <_sk_load_565_sse2+0x8c>
+ .byte 117,97 // jne 4320 <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,112,140,0,0 // movdqa 0x8c70(%edx),%xmm0
+ .byte 102,15,111,130,94,140,0,0 // movdqa 0x8c5e(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,128,140,0,0 // mulps 0x8c80(%edx),%xmm0
- .byte 102,15,111,138,144,140,0,0 // movdqa 0x8c90(%edx),%xmm1
+ .byte 15,89,130,110,140,0,0 // mulps 0x8c6e(%edx),%xmm0
+ .byte 102,15,111,138,126,140,0,0 // movdqa 0x8c7e(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,160,140,0,0 // mulps 0x8ca0(%edx),%xmm1
- .byte 102,15,219,146,176,140,0,0 // pand 0x8cb0(%edx),%xmm2
+ .byte 15,89,138,142,140,0,0 // mulps 0x8c8e(%edx),%xmm1
+ .byte 102,15,219,146,158,140,0,0 // pand 0x8c9e(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,192,140,0,0 // mulps 0x8cc0(%edx),%xmm2
+ .byte 15,89,146,174,140,0,0 // mulps 0x8cae(%edx),%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,96,138,0,0 // movaps 0x8a60(%edx),%xmm3
+ .byte 15,40,154,78,138,0,0 // movaps 0x8a4e(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -66942,22 +66897,22 @@ _sk_load_565_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 4355 <_sk_load_565_sse2+0xc3>
+ .byte 116,47 // je 4357 <_sk_load_565_sse2+0xc3>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4342 <_sk_load_565_sse2+0xb0>
+ .byte 116,19 // je 4344 <_sk_load_565_sse2+0xb0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,146 // jne 42c6 <_sk_load_565_sse2+0x34>
+ .byte 117,146 // jne 42c8 <_sk_load_565_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,113,255,255,255 // jmp 42c6 <_sk_load_565_sse2+0x34>
+ .byte 233,113,255,255,255 // jmp 42c8 <_sk_load_565_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,214 // movd %esi,%xmm2
- .byte 233,100,255,255,255 // jmp 42c6 <_sk_load_565_sse2+0x34>
+ .byte 233,100,255,255,255 // jmp 42c8 <_sk_load_565_sse2+0x34>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -66969,7 +66924,7 @@ _sk_load_565_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4370 <_sk_load_565_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4372 <_sk_load_565_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -66981,24 +66936,24 @@ _sk_load_565_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,113 // jne 43fe <_sk_load_565_dst_sse2+0x9c>
+ .byte 117,113 // jne 4400 <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,160,139,0,0 // movdqa 0x8ba0(%edx),%xmm5
+ .byte 102,15,111,170,142,139,0,0 // movdqa 0x8b8e(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,176,139,0,0 // mulps 0x8bb0(%edx),%xmm5
+ .byte 15,89,170,158,139,0,0 // mulps 0x8b9e(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,192,139,0,0 // movdqa 0x8bc0(%edx),%xmm5
+ .byte 102,15,111,170,174,139,0,0 // movdqa 0x8bae(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,208,139,0,0 // mulps 0x8bd0(%edx),%xmm5
+ .byte 15,89,170,190,139,0,0 // mulps 0x8bbe(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,224,139,0,0 // pand 0x8be0(%edx),%xmm4
+ .byte 102,15,219,162,206,139,0,0 // pand 0x8bce(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,240,139,0,0 // mulps 0x8bf0(%edx),%xmm4
+ .byte 15,89,162,222,139,0,0 // mulps 0x8bde(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,144,137,0,0 // movaps 0x8990(%edx),%xmm4
+ .byte 15,40,162,126,137,0,0 // movaps 0x897e(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -67013,22 +66968,22 @@ _sk_load_565_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 4435 <_sk_load_565_dst_sse2+0xd3>
+ .byte 116,47 // je 4437 <_sk_load_565_dst_sse2+0xd3>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4422 <_sk_load_565_dst_sse2+0xc0>
+ .byte 116,19 // je 4424 <_sk_load_565_dst_sse2+0xc0>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,130 // jne 4396 <_sk_load_565_dst_sse2+0x34>
+ .byte 117,130 // jne 4398 <_sk_load_565_dst_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,97,255,255,255 // jmp 4396 <_sk_load_565_dst_sse2+0x34>
+ .byte 233,97,255,255,255 // jmp 4398 <_sk_load_565_dst_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,84,255,255,255 // jmp 4396 <_sk_load_565_dst_sse2+0x34>
+ .byte 233,84,255,255,255 // jmp 4398 <_sk_load_565_dst_sse2+0x34>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -67078,25 +67033,25 @@ _sk_gather_565_sse2:
.byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 232,0,0,0,0 // call 44f2 <_sk_gather_565_sse2+0xb0>
+ .byte 232,0,0,0,0 // call 44f4 <_sk_gather_565_sse2+0xb0>
.byte 90 // pop %edx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,30,138,0,0 // movdqa 0x8a1e(%edx),%xmm0
+ .byte 102,15,111,130,12,138,0,0 // movdqa 0x8a0c(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,46,138,0,0 // mulps 0x8a2e(%edx),%xmm0
- .byte 102,15,111,138,62,138,0,0 // movdqa 0x8a3e(%edx),%xmm1
+ .byte 15,89,130,28,138,0,0 // mulps 0x8a1c(%edx),%xmm0
+ .byte 102,15,111,138,44,138,0,0 // movdqa 0x8a2c(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,78,138,0,0 // mulps 0x8a4e(%edx),%xmm1
- .byte 102,15,219,146,94,138,0,0 // pand 0x8a5e(%edx),%xmm2
+ .byte 15,89,138,60,138,0,0 // mulps 0x8a3c(%edx),%xmm1
+ .byte 102,15,219,146,76,138,0,0 // pand 0x8a4c(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,110,138,0,0 // mulps 0x8a6e(%edx),%xmm2
+ .byte 15,89,146,92,138,0,0 // mulps 0x8a5c(%edx),%xmm2
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,14,136,0,0 // movaps 0x880e(%edx),%xmm3
+ .byte 15,40,154,252,135,0,0 // movaps 0x87fc(%edx),%xmm3
.byte 81 // push %ecx
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
@@ -67114,7 +67069,7 @@ _sk_store_565_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4565 <_sk_store_565_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4567 <_sk_store_565_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67124,8 +67079,8 @@ _sk_store_565_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,155,139,0,0 // movaps 0x8b9b(%edi),%xmm4
- .byte 15,40,175,171,139,0,0 // movaps 0x8bab(%edi),%xmm5
+ .byte 15,40,167,137,139,0,0 // movaps 0x8b89(%edi),%xmm4
+ .byte 15,40,175,153,139,0,0 // movaps 0x8b99(%edi),%xmm5
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,89,244 // mulps %xmm4,%xmm6
@@ -67145,7 +67100,7 @@ _sk_store_565_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 45f9 <_sk_store_565_sse2+0xa2>
+ .byte 117,34 // jne 45fb <_sk_store_565_sse2+0xa2>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,15,126,235 // movd %xmm5,%ebx
.byte 137,60,114 // mov %edi,(%edx,%esi,2)
@@ -67165,20 +67120,20 @@ _sk_store_565_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 462f <_sk_store_565_sse2+0xd8>
+ .byte 116,37 // je 4631 <_sk_store_565_sse2+0xd8>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 461e <_sk_store_565_sse2+0xc7>
+ .byte 116,15 // je 4620 <_sk_store_565_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 45e6 <_sk_store_565_sse2+0x8f>
+ .byte 117,210 // jne 45e8 <_sk_store_565_sse2+0x8f>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
.byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
.byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
- .byte 235,183 // jmp 45e6 <_sk_store_565_sse2+0x8f>
+ .byte 235,183 // jmp 45e8 <_sk_store_565_sse2+0x8f>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,137,60,114 // mov %di,(%edx,%esi,2)
- .byte 235,173 // jmp 45e6 <_sk_store_565_sse2+0x8f>
+ .byte 235,173 // jmp 45e8 <_sk_store_565_sse2+0x8f>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -67190,7 +67145,7 @@ _sk_load_4444_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4647 <_sk_load_4444_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4649 <_sk_load_4444_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67202,24 +67157,24 @@ _sk_load_4444_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,112 // jne 46d4 <_sk_load_4444_sse2+0x9b>
+ .byte 117,112 // jne 46d6 <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,217,138,0,0 // movdqa 0x8ad9(%edx),%xmm0
+ .byte 102,15,111,130,199,138,0,0 // movdqa 0x8ac7(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,233,138,0,0 // mulps 0x8ae9(%edx),%xmm0
- .byte 102,15,111,138,249,138,0,0 // movdqa 0x8af9(%edx),%xmm1
+ .byte 15,89,130,215,138,0,0 // mulps 0x8ad7(%edx),%xmm0
+ .byte 102,15,111,138,231,138,0,0 // movdqa 0x8ae7(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,9,139,0,0 // mulps 0x8b09(%edx),%xmm1
- .byte 102,15,111,146,25,139,0,0 // movdqa 0x8b19(%edx),%xmm2
+ .byte 15,89,138,247,138,0,0 // mulps 0x8af7(%edx),%xmm1
+ .byte 102,15,111,146,7,139,0,0 // movdqa 0x8b07(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,41,139,0,0 // mulps 0x8b29(%edx),%xmm2
- .byte 102,15,219,154,57,139,0,0 // pand 0x8b39(%edx),%xmm3
+ .byte 15,89,146,23,139,0,0 // mulps 0x8b17(%edx),%xmm2
+ .byte 102,15,219,154,39,139,0,0 // pand 0x8b27(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,73,139,0,0 // mulps 0x8b49(%edx),%xmm3
+ .byte 15,89,154,55,139,0,0 // mulps 0x8b37(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -67233,22 +67188,22 @@ _sk_load_4444_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 470b <_sk_load_4444_sse2+0xd2>
+ .byte 116,47 // je 470d <_sk_load_4444_sse2+0xd2>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 46f8 <_sk_load_4444_sse2+0xbf>
+ .byte 116,19 // je 46fa <_sk_load_4444_sse2+0xbf>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,131 // jne 466d <_sk_load_4444_sse2+0x34>
+ .byte 117,131 // jne 466f <_sk_load_4444_sse2+0x34>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,98,255,255,255 // jmp 466d <_sk_load_4444_sse2+0x34>
+ .byte 233,98,255,255,255 // jmp 466f <_sk_load_4444_sse2+0x34>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,222 // movd %esi,%xmm3
- .byte 233,85,255,255,255 // jmp 466d <_sk_load_4444_sse2+0x34>
+ .byte 233,85,255,255,255 // jmp 466f <_sk_load_4444_sse2+0x34>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -67260,7 +67215,7 @@ _sk_load_4444_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4726 <_sk_load_4444_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4728 <_sk_load_4444_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67272,27 +67227,27 @@ _sk_load_4444_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,128,0,0,0 // jne 47c7 <_sk_load_4444_dst_sse2+0xaf>
+ .byte 15,133,128,0,0,0 // jne 47c9 <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,250,137,0,0 // movdqa 0x89fa(%edx),%xmm5
+ .byte 102,15,111,170,232,137,0,0 // movdqa 0x89e8(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,10,138,0,0 // mulps 0x8a0a(%edx),%xmm5
+ .byte 15,89,170,248,137,0,0 // mulps 0x89f8(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,26,138,0,0 // movdqa 0x8a1a(%edx),%xmm5
+ .byte 102,15,111,170,8,138,0,0 // movdqa 0x8a08(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,42,138,0,0 // mulps 0x8a2a(%edx),%xmm5
+ .byte 15,89,170,24,138,0,0 // mulps 0x8a18(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,58,138,0,0 // movdqa 0x8a3a(%edx),%xmm5
+ .byte 102,15,111,170,40,138,0,0 // movdqa 0x8a28(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,74,138,0,0 // mulps 0x8a4a(%edx),%xmm5
+ .byte 15,89,170,56,138,0,0 // mulps 0x8a38(%edx),%xmm5
.byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,90,138,0,0 // pand 0x8a5a(%edx),%xmm4
+ .byte 102,15,219,162,72,138,0,0 // pand 0x8a48(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,106,138,0,0 // mulps 0x8a6a(%edx),%xmm4
+ .byte 15,89,162,88,138,0,0 // mulps 0x8a58(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -67307,22 +67262,22 @@ _sk_load_4444_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 4802 <_sk_load_4444_dst_sse2+0xea>
+ .byte 116,51 // je 4804 <_sk_load_4444_dst_sse2+0xea>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 47ef <_sk_load_4444_dst_sse2+0xd7>
+ .byte 116,23 // je 47f1 <_sk_load_4444_dst_sse2+0xd7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,111,255,255,255 // jne 4750 <_sk_load_4444_dst_sse2+0x38>
+ .byte 15,133,111,255,255,255 // jne 4752 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
.byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,78,255,255,255 // jmp 4750 <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,78,255,255,255 // jmp 4752 <_sk_load_4444_dst_sse2+0x38>
.byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
.byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,65,255,255,255 // jmp 4750 <_sk_load_4444_dst_sse2+0x38>
+ .byte 233,65,255,255,255 // jmp 4752 <_sk_load_4444_dst_sse2+0x38>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -67373,25 +67328,25 @@ _sk_gather_4444_sse2:
.byte 102,15,126,193 // movd %xmm0,%ecx
.byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
.byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3
- .byte 232,0,0,0,0 // call 48c4 <_sk_gather_4444_sse2+0xb5>
+ .byte 232,0,0,0,0 // call 48c6 <_sk_gather_4444_sse2+0xb5>
.byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,92,136,0,0 // movdqa 0x885c(%ecx),%xmm0
+ .byte 102,15,111,129,74,136,0,0 // movdqa 0x884a(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,108,136,0,0 // mulps 0x886c(%ecx),%xmm0
- .byte 102,15,111,137,124,136,0,0 // movdqa 0x887c(%ecx),%xmm1
+ .byte 15,89,129,90,136,0,0 // mulps 0x885a(%ecx),%xmm0
+ .byte 102,15,111,137,106,136,0,0 // movdqa 0x886a(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,140,136,0,0 // mulps 0x888c(%ecx),%xmm1
- .byte 102,15,111,145,156,136,0,0 // movdqa 0x889c(%ecx),%xmm2
+ .byte 15,89,137,122,136,0,0 // mulps 0x887a(%ecx),%xmm1
+ .byte 102,15,111,145,138,136,0,0 // movdqa 0x888a(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,172,136,0,0 // mulps 0x88ac(%ecx),%xmm2
- .byte 102,15,219,153,188,136,0,0 // pand 0x88bc(%ecx),%xmm3
+ .byte 15,89,145,154,136,0,0 // mulps 0x889a(%ecx),%xmm2
+ .byte 102,15,219,153,170,136,0,0 // pand 0x88aa(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,204,136,0,0 // mulps 0x88cc(%ecx),%xmm3
+ .byte 15,89,153,186,136,0,0 // mulps 0x88ba(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -67411,7 +67366,7 @@ _sk_store_4444_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4941 <_sk_store_4444_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4943 <_sk_store_4444_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67421,7 +67376,7 @@ _sk_store_4444_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,95,136,0,0 // movaps 0x885f(%edi),%xmm4
+ .byte 15,40,167,77,136,0,0 // movaps 0x884d(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -67447,7 +67402,7 @@ _sk_store_4444_sse2:
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
.byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 49e4 <_sk_store_4444_sse2+0xb1>
+ .byte 117,34 // jne 49e6 <_sk_store_4444_sse2+0xb1>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,15,126,235 // movd %xmm5,%ebx
.byte 137,60,114 // mov %edi,(%edx,%esi,2)
@@ -67467,20 +67422,20 @@ _sk_store_4444_sse2:
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 4a1a <_sk_store_4444_sse2+0xe7>
+ .byte 116,37 // je 4a1c <_sk_store_4444_sse2+0xe7>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 4a09 <_sk_store_4444_sse2+0xd6>
+ .byte 116,15 // je 4a0b <_sk_store_4444_sse2+0xd6>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 49d1 <_sk_store_4444_sse2+0x9e>
+ .byte 117,210 // jne 49d3 <_sk_store_4444_sse2+0x9e>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
.byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
.byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
- .byte 235,183 // jmp 49d1 <_sk_store_4444_sse2+0x9e>
+ .byte 235,183 // jmp 49d3 <_sk_store_4444_sse2+0x9e>
.byte 102,15,126,231 // movd %xmm4,%edi
.byte 102,137,60,114 // mov %di,(%edx,%esi,2)
- .byte 235,173 // jmp 49d1 <_sk_store_4444_sse2+0x9e>
+ .byte 235,173 // jmp 49d3 <_sk_store_4444_sse2+0x9e>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -67492,7 +67447,7 @@ _sk_load_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4a32 <_sk_load_8888_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4a34 <_sk_load_8888_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67504,13 +67459,13 @@ _sk_load_8888_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 4ab6 <_sk_load_8888_sse2+0x92>
+ .byte 117,102 // jne 4ab8 <_sk_load_8888_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,142,131,0,0 // movdqa 0x838e(%edx),%xmm2
+ .byte 102,15,111,146,124,131,0,0 // movdqa 0x837c(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,206,132,0,0 // movaps 0x84ce(%edx),%xmm4
+ .byte 15,40,162,188,132,0,0 // movaps 0x84bc(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67538,18 +67493,18 @@ _sk_load_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 4ae1 <_sk_load_8888_sse2+0xbd>
+ .byte 116,35 // je 4ae3 <_sk_load_8888_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4ad7 <_sk_load_8888_sse2+0xb3>
+ .byte 116,16 // je 4ad9 <_sk_load_8888_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 4a55 <_sk_load_8888_sse2+0x31>
+ .byte 117,137 // jne 4a57 <_sk_load_8888_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 4a55 <_sk_load_8888_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 4a57 <_sk_load_8888_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 4a55 <_sk_load_8888_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 4a57 <_sk_load_8888_sse2+0x31>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -67561,7 +67516,7 @@ _sk_load_8888_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4af9 <_sk_load_8888_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4afb <_sk_load_8888_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67573,13 +67528,13 @@ _sk_load_8888_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 4b8d <_sk_load_8888_dst_sse2+0xa2>
+ .byte 117,118 // jne 4b8f <_sk_load_8888_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,199,130,0,0 // movdqa 0x82c7(%edx),%xmm5
+ .byte 102,15,111,170,181,130,0,0 // movdqa 0x82b5(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,7,132,0,0 // movaps 0x8407(%edx),%xmm7
+ .byte 15,40,186,245,131,0,0 // movaps 0x83f5(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -67611,18 +67566,18 @@ _sk_load_8888_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 4bbc <_sk_load_8888_dst_sse2+0xd1>
+ .byte 116,39 // je 4bbe <_sk_load_8888_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 4bb2 <_sk_load_8888_dst_sse2+0xc7>
+ .byte 116,20 // je 4bb4 <_sk_load_8888_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 4b1c <_sk_load_8888_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 4b1e <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 4b1c <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 4b1e <_sk_load_8888_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 4b1c <_sk_load_8888_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 4b1e <_sk_load_8888_dst_sse2+0x31>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -67669,16 +67624,16 @@ _sk_gather_8888_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 4c6c <_sk_gather_8888_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 4c6e <_sk_gather_8888_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,145,84,129,0,0 // movdqa 0x8154(%ecx),%xmm2
+ .byte 102,15,111,145,66,129,0,0 // movdqa 0x8142(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,148,130,0,0 // movaps 0x8294(%ecx),%xmm4
+ .byte 15,40,161,130,130,0,0 // movaps 0x8282(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67712,7 +67667,7 @@ _sk_store_8888_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4ce7 <_sk_store_8888_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4ce9 <_sk_store_8888_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67722,7 +67677,7 @@ _sk_store_8888_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,233,128,0,0 // movaps 0x80e9(%edi),%xmm4
+ .byte 15,40,167,215,128,0,0 // movaps 0x80d7(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -67742,7 +67697,7 @@ _sk_store_8888_sse2:
.byte 102,15,235,229 // por %xmm5,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
.byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 4d64 <_sk_store_8888_sse2+0x8b>
+ .byte 117,24 // jne 4d66 <_sk_store_8888_sse2+0x8b>
.byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -67757,17 +67712,17 @@ _sk_store_8888_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 4d88 <_sk_store_8888_sse2+0xaf>
+ .byte 116,28 // je 4d8a <_sk_store_8888_sse2+0xaf>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4d81 <_sk_store_8888_sse2+0xa8>
+ .byte 116,16 // je 4d83 <_sk_store_8888_sse2+0xa8>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 4d51 <_sk_store_8888_sse2+0x78>
+ .byte 117,219 // jne 4d53 <_sk_store_8888_sse2+0x78>
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
.byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
- .byte 235,201 // jmp 4d51 <_sk_store_8888_sse2+0x78>
+ .byte 235,201 // jmp 4d53 <_sk_store_8888_sse2+0x78>
.byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
- .byte 235,194 // jmp 4d51 <_sk_store_8888_sse2+0x78>
+ .byte 235,194 // jmp 4d53 <_sk_store_8888_sse2+0x78>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -67779,7 +67734,7 @@ _sk_load_bgra_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4d9d <_sk_load_bgra_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4d9f <_sk_load_bgra_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67791,13 +67746,13 @@ _sk_load_bgra_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 4e21 <_sk_load_bgra_sse2+0x92>
+ .byte 117,102 // jne 4e23 <_sk_load_bgra_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,35,128,0,0 // movdqa 0x8023(%edx),%xmm0
+ .byte 102,15,111,130,17,128,0,0 // movdqa 0x8011(%edx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,99,129,0,0 // movaps 0x8163(%edx),%xmm4
+ .byte 15,40,162,81,129,0,0 // movaps 0x8151(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67825,18 +67780,18 @@ _sk_load_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 4e4c <_sk_load_bgra_sse2+0xbd>
+ .byte 116,35 // je 4e4e <_sk_load_bgra_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 4e42 <_sk_load_bgra_sse2+0xb3>
+ .byte 116,16 // je 4e44 <_sk_load_bgra_sse2+0xb3>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 4dc0 <_sk_load_bgra_sse2+0x31>
+ .byte 117,137 // jne 4dc2 <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 4dc0 <_sk_load_bgra_sse2+0x31>
+ .byte 233,116,255,255,255 // jmp 4dc2 <_sk_load_bgra_sse2+0x31>
.byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 4dc0 <_sk_load_bgra_sse2+0x31>
+ .byte 233,106,255,255,255 // jmp 4dc2 <_sk_load_bgra_sse2+0x31>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -67848,7 +67803,7 @@ _sk_load_bgra_dst_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4e64 <_sk_load_bgra_dst_sse2+0xe>
+ .byte 232,0,0,0,0 // call 4e66 <_sk_load_bgra_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -67860,13 +67815,13 @@ _sk_load_bgra_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 4ef8 <_sk_load_bgra_dst_sse2+0xa2>
+ .byte 117,118 // jne 4efa <_sk_load_bgra_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,92,127,0,0 // movdqa 0x7f5c(%edx),%xmm5
+ .byte 102,15,111,170,74,127,0,0 // movdqa 0x7f4a(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,156,128,0,0 // movaps 0x809c(%edx),%xmm7
+ .byte 15,40,186,138,128,0,0 // movaps 0x808a(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -67898,18 +67853,18 @@ _sk_load_bgra_dst_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 4f27 <_sk_load_bgra_dst_sse2+0xd1>
+ .byte 116,39 // je 4f29 <_sk_load_bgra_dst_sse2+0xd1>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 4f1d <_sk_load_bgra_dst_sse2+0xc7>
+ .byte 116,20 // je 4f1f <_sk_load_bgra_dst_sse2+0xc7>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 4e87 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 15,133,117,255,255,255 // jne 4e89 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 4e87 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,96,255,255,255 // jmp 4e89 <_sk_load_bgra_dst_sse2+0x31>
.byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 4e87 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 233,86,255,255,255 // jmp 4e89 <_sk_load_bgra_dst_sse2+0x31>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -67956,16 +67911,16 @@ _sk_gather_bgra_sse2:
.byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 4fd7 <_sk_gather_bgra_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 4fd9 <_sk_gather_bgra_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,129,233,125,0,0 // movdqa 0x7de9(%ecx),%xmm0
+ .byte 102,15,111,129,215,125,0,0 // movdqa 0x7dd7(%ecx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,41,127,0,0 // movaps 0x7f29(%ecx),%xmm4
+ .byte 15,40,161,23,127,0,0 // movaps 0x7f17(%ecx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67999,7 +67954,7 @@ _sk_store_bgra_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 5052 <_sk_store_bgra_sse2+0xe>
+ .byte 232,0,0,0,0 // call 5054 <_sk_store_bgra_sse2+0xe>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -68009,7 +67964,7 @@ _sk_store_bgra_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,126,125,0,0 // movaps 0x7d7e(%edi),%xmm4
+ .byte 15,40,167,108,125,0,0 // movaps 0x7d6c(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -68029,7 +67984,7 @@ _sk_store_bgra_sse2:
.byte 102,15,235,229 // por %xmm5,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
.byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 50cf <_sk_store_bgra_sse2+0x8b>
+ .byte 117,24 // jne 50d1 <_sk_store_bgra_sse2+0x8b>
.byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -68044,17 +67999,17 @@ _sk_store_bgra_sse2:
.byte 195 // ret
.byte 128,227,3 // and $0x3,%bl
.byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 50f3 <_sk_store_bgra_sse2+0xaf>
+ .byte 116,28 // je 50f5 <_sk_store_bgra_sse2+0xaf>
.byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 50ec <_sk_store_bgra_sse2+0xa8>
+ .byte 116,16 // je 50ee <_sk_store_bgra_sse2+0xa8>
.byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 50bc <_sk_store_bgra_sse2+0x78>
+ .byte 117,219 // jne 50be <_sk_store_bgra_sse2+0x78>
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
.byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
- .byte 235,201 // jmp 50bc <_sk_store_bgra_sse2+0x78>
+ .byte 235,201 // jmp 50be <_sk_store_bgra_sse2+0x78>
.byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
- .byte 235,194 // jmp 50bc <_sk_store_bgra_sse2+0x78>
+ .byte 235,194 // jmp 50be <_sk_store_bgra_sse2+0x78>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -68066,7 +68021,7 @@ _sk_load_f16_sse2:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5108 <_sk_load_f16_sse2+0xe>
+ .byte 232,0,0,0,0 // call 510a <_sk_load_f16_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -68078,7 +68033,7 @@ _sk_load_f16_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,173,1,0,0 // jne 52d7 <_sk_load_f16_sse2+0x1dd>
+ .byte 15,133,173,1,0,0 // jne 52d9 <_sk_load_f16_sse2+0x1dd>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
@@ -68108,11 +68063,11 @@ _sk_load_f16_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,170,168,128,0,0 // movdqa 0x80a8(%edx),%xmm5
+ .byte 102,15,111,170,150,128,0,0 // movdqa 0x8096(%edx),%xmm5
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,138,184,128,0,0 // pand 0x80b8(%edx),%xmm1
- .byte 102,15,111,130,200,128,0,0 // movdqa 0x80c8(%edx),%xmm0
+ .byte 102,15,219,138,166,128,0,0 // pand 0x80a6(%edx),%xmm1
+ .byte 102,15,111,130,182,128,0,0 // movdqa 0x80b6(%edx),%xmm0
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
@@ -68124,7 +68079,7 @@ _sk_load_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,154,184,128,0,0 // movdqa 0x80b8(%edx),%xmm3
+ .byte 102,15,111,154,166,128,0,0 // movdqa 0x80a6(%edx),%xmm3
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0
@@ -68137,7 +68092,7 @@ _sk_load_f16_sse2:
.byte 102,15,219,253 // pand %xmm5,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,146,200,128,0,0 // movdqa 0x80c8(%edx),%xmm2
+ .byte 102,15,111,146,182,128,0,0 // movdqa 0x80b6(%edx),%xmm2
.byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -68152,7 +68107,7 @@ _sk_load_f16_sse2:
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,154,216,128,0,0 // movdqa 0x80d8(%edx),%xmm3
+ .byte 102,15,111,154,198,128,0,0 // movdqa 0x80c6(%edx),%xmm3
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,15,254,227 // paddd %xmm3,%xmm4
.byte 102,15,254,195 // paddd %xmm3,%xmm0
@@ -68180,12 +68135,12 @@ _sk_load_f16_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,76,254,255,255 // je 5135 <_sk_load_f16_sse2+0x3b>
+ .byte 15,132,76,254,255,255 // je 5137 <_sk_load_f16_sse2+0x3b>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,61,254,255,255 // jb 5135 <_sk_load_f16_sse2+0x3b>
+ .byte 15,130,61,254,255,255 // jb 5137 <_sk_load_f16_sse2+0x3b>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,50,254,255,255 // jmp 5135 <_sk_load_f16_sse2+0x3b>
+ .byte 233,50,254,255,255 // jmp 5137 <_sk_load_f16_sse2+0x3b>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -68201,7 +68156,7 @@ _sk_load_f16_dst_sse2:
.byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
.byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 232,0,0,0,0 // call 5325 <_sk_load_f16_dst_sse2+0x22>
+ .byte 232,0,0,0,0 // call 5327 <_sk_load_f16_dst_sse2+0x22>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -68213,7 +68168,7 @@ _sk_load_f16_dst_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
.byte 139,57 // mov (%ecx),%edi
- .byte 15,133,168,1,0,0 // jne 54ef <_sk_load_f16_dst_sse2+0x1ec>
+ .byte 15,133,168,1,0,0 // jne 54f1 <_sk_load_f16_dst_sse2+0x1ec>
.byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
.byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -68241,18 +68196,18 @@ _sk_load_f16_dst_sse2:
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,186,139,126,0,0 // movdqa 0x7e8b(%edx),%xmm7
+ .byte 102,15,111,186,121,126,0,0 // movdqa 0x7e79(%edx),%xmm7
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,154,155,126,0,0 // movdqa 0x7e9b(%edx),%xmm3
+ .byte 102,15,111,154,137,126,0,0 // movdqa 0x7e89(%edx),%xmm3
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 102,15,111,162,171,126,0,0 // movdqa 0x7eab(%edx),%xmm4
+ .byte 102,15,111,162,153,126,0,0 // movdqa 0x7e99(%edx),%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,187,126,0,0 // movdqa 0x7ebb(%edx),%xmm2
+ .byte 102,15,111,146,169,126,0,0 // movdqa 0x7ea9(%edx),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,223,233 // pandn %xmm1,%xmm5
@@ -68315,12 +68270,12 @@ _sk_load_f16_dst_sse2:
.byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,81,254,255,255 // je 5352 <_sk_load_f16_dst_sse2+0x4f>
+ .byte 15,132,81,254,255,255 // je 5354 <_sk_load_f16_dst_sse2+0x4f>
.byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,66,254,255,255 // jb 5352 <_sk_load_f16_dst_sse2+0x4f>
+ .byte 15,130,66,254,255,255 // jb 5354 <_sk_load_f16_dst_sse2+0x4f>
.byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,55,254,255,255 // jmp 5352 <_sk_load_f16_dst_sse2+0x4f>
+ .byte 233,55,254,255,255 // jmp 5354 <_sk_load_f16_dst_sse2+0x4f>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -68367,7 +68322,7 @@ _sk_gather_f16_sse2:
.byte 243,15,126,28,202 // movq (%edx,%ecx,8),%xmm3
.byte 102,15,126,201 // movd %xmm1,%ecx
.byte 243,15,126,12,202 // movq (%edx,%ecx,8),%xmm1
- .byte 232,0,0,0,0 // call 55c1 <_sk_gather_f16_sse2+0xa6>
+ .byte 232,0,0,0,0 // call 55c3 <_sk_gather_f16_sse2+0xa6>
.byte 89 // pop %ecx
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0
@@ -68398,11 +68353,11 @@ _sk_gather_f16_sse2:
.byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
.byte 102,15,97,206 // punpcklwd %xmm6,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,177,239,123,0,0 // movdqa 0x7bef(%ecx),%xmm6
+ .byte 102,15,111,177,221,123,0,0 // movdqa 0x7bdd(%ecx),%xmm6
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,137,255,123,0,0 // pand 0x7bff(%ecx),%xmm1
- .byte 102,15,111,129,15,124,0,0 // movdqa 0x7c0f(%ecx),%xmm0
+ .byte 102,15,219,137,237,123,0,0 // pand 0x7bed(%ecx),%xmm1
+ .byte 102,15,111,129,253,123,0,0 // movdqa 0x7bfd(%ecx),%xmm0
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
@@ -68413,7 +68368,7 @@ _sk_gather_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,213 // movdqa %xmm5,%xmm2
.byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,111,153,255,123,0,0 // movdqa 0x7bff(%ecx),%xmm3
+ .byte 102,15,111,153,237,123,0,0 // movdqa 0x7bed(%ecx),%xmm3
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
@@ -68427,7 +68382,7 @@ _sk_gather_f16_sse2:
.byte 102,15,219,254 // pand %xmm6,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,145,15,124,0,0 // movdqa 0x7c0f(%ecx),%xmm2
+ .byte 102,15,111,145,253,123,0,0 // movdqa 0x7bfd(%ecx),%xmm2
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
@@ -68436,12 +68391,12 @@ _sk_gather_f16_sse2:
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,252 // punpcklwd %xmm4,%xmm7
.byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 102,15,219,185,255,123,0,0 // pand 0x7bff(%ecx),%xmm7
+ .byte 102,15,219,185,237,123,0,0 // pand 0x7bed(%ecx),%xmm7
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 102,15,111,161,31,124,0,0 // movdqa 0x7c1f(%ecx),%xmm4
+ .byte 102,15,111,161,13,124,0,0 // movdqa 0x7c0d(%ecx),%xmm4
.byte 102,15,254,204 // paddd %xmm4,%xmm1
.byte 102,15,254,236 // paddd %xmm4,%xmm5
.byte 102,15,254,196 // paddd %xmm4,%xmm0
@@ -68478,24 +68433,24 @@ _sk_store_f16_sse2:
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 232,0,0,0,0 // call 5785 <_sk_store_f16_sse2+0x19>
+ .byte 232,0,0,0,0 // call 5787 <_sk_store_f16_sse2+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,152,107,122,0,0 // movdqa 0x7a6b(%eax),%xmm3
+ .byte 102,15,111,152,89,122,0,0 // movdqa 0x7a59(%eax),%xmm3
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,111,136,155,122,0,0 // movdqa 0x7a9b(%eax),%xmm1
+ .byte 102,15,111,136,137,122,0,0 // movdqa 0x7a89(%eax),%xmm1
.byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,114,246,3 // pslld $0x3,%xmm6
.byte 102,15,219,241 // pand %xmm1,%xmm6
.byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 102,15,111,184,123,122,0,0 // movdqa 0x7a7b(%eax),%xmm7
+ .byte 102,15,111,184,105,122,0,0 // movdqa 0x7a69(%eax),%xmm7
.byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
.byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,168,139,122,0,0 // movdqa 0x7a8b(%eax),%xmm5
+ .byte 102,15,111,168,121,122,0,0 // movdqa 0x7a79(%eax),%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
- .byte 102,15,111,128,27,119,0,0 // movdqa 0x771b(%eax),%xmm0
+ .byte 102,15,111,128,9,119,0,0 // movdqa 0x7709(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,254,240 // paddd %xmm0,%xmm6
.byte 102,15,114,230,16 // psrad $0x10,%xmm6
@@ -68557,7 +68512,7 @@ _sk_store_f16_sse2:
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,98,198 // punpckldq %xmm6,%xmm0
.byte 133,255 // test %edi,%edi
- .byte 117,48 // jne 5906 <_sk_store_f16_sse2+0x19a>
+ .byte 117,48 // jne 5908 <_sk_store_f16_sse2+0x19a>
.byte 15,17,4,214 // movups %xmm0,(%esi,%edx,8)
.byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
.byte 243,15,127,76,214,16 // movdqu %xmm1,0x10(%esi,%edx,8)
@@ -68577,13 +68532,13 @@ _sk_store_f16_sse2:
.byte 195 // ret
.byte 102,15,214,4,214 // movq %xmm0,(%esi,%edx,8)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,212 // je 58e4 <_sk_store_f16_sse2+0x178>
+ .byte 116,212 // je 58e6 <_sk_store_f16_sse2+0x178>
.byte 102,15,23,68,214,8 // movhpd %xmm0,0x8(%esi,%edx,8)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,201 // jb 58e4 <_sk_store_f16_sse2+0x178>
+ .byte 114,201 // jb 58e6 <_sk_store_f16_sse2+0x178>
.byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
.byte 102,15,214,76,214,16 // movq %xmm1,0x10(%esi,%edx,8)
- .byte 235,189 // jmp 58e4 <_sk_store_f16_sse2+0x178>
+ .byte 235,189 // jmp 58e6 <_sk_store_f16_sse2+0x178>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -68606,9 +68561,9 @@ _sk_load_u16_be_sse2:
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 193,230,2 // shl $0x2,%esi
.byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 5952 <_sk_load_u16_be_sse2+0x2b>
+ .byte 232,0,0,0,0 // call 5954 <_sk_load_u16_be_sse2+0x2b>
.byte 90 // pop %edx
- .byte 15,133,11,1,0,0 // jne 5a64 <_sk_load_u16_be_sse2+0x13d>
+ .byte 15,133,11,1,0,0 // jne 5a66 <_sk_load_u16_be_sse2+0x13d>
.byte 102,15,16,4,119 // movupd (%edi,%esi,2),%xmm0
.byte 243,15,111,76,119,16 // movdqu 0x10(%edi,%esi,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -68629,7 +68584,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,46,118,0,0 // movaps 0x762e(%edx),%xmm4
+ .byte 15,40,162,28,118,0,0 // movaps 0x761c(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -68679,12 +68634,12 @@ _sk_load_u16_be_sse2:
.byte 242,15,16,4,119 // movsd (%edi,%esi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,238,254,255,255 // je 5964 <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,132,238,254,255,255 // je 5966 <_sk_load_u16_be_sse2+0x3d>
.byte 102,15,22,68,119,8 // movhpd 0x8(%edi,%esi,2),%xmm0
.byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,223,254,255,255 // jb 5964 <_sk_load_u16_be_sse2+0x3d>
+ .byte 15,130,223,254,255,255 // jb 5966 <_sk_load_u16_be_sse2+0x3d>
.byte 243,15,126,76,119,16 // movq 0x10(%edi,%esi,2),%xmm1
- .byte 233,212,254,255,255 // jmp 5964 <_sk_load_u16_be_sse2+0x3d>
+ .byte 233,212,254,255,255 // jmp 5966 <_sk_load_u16_be_sse2+0x3d>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -68706,9 +68661,9 @@ _sk_load_rgb_u16_be_sse2:
.byte 3,50 // add (%edx),%esi
.byte 107,25,3 // imul $0x3,(%ecx),%ebx
.byte 133,255 // test %edi,%edi
- .byte 232,0,0,0,0 // call 5ab9 <_sk_load_rgb_u16_be_sse2+0x29>
+ .byte 232,0,0,0,0 // call 5abb <_sk_load_rgb_u16_be_sse2+0x29>
.byte 90 // pop %edx
- .byte 15,133,240,0,0,0 // jne 5bb0 <_sk_load_rgb_u16_be_sse2+0x120>
+ .byte 15,133,240,0,0,0 // jne 5bb2 <_sk_load_rgb_u16_be_sse2+0x120>
.byte 243,15,111,20,94 // movdqu (%esi,%ebx,2),%xmm2
.byte 243,15,111,92,94,8 // movdqu 0x8(%esi,%ebx,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -68733,7 +68688,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,199,116,0,0 // movaps 0x74c7(%edx),%xmm5
+ .byte 15,40,170,181,116,0,0 // movaps 0x74b5(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -68759,7 +68714,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,71,114,0,0 // movaps 0x7247(%edx),%xmm3
+ .byte 15,40,154,53,114,0,0 // movaps 0x7235(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -68773,20 +68728,20 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,196,84,94,4,2 // pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,13 // jne 5bd2 <_sk_load_rgb_u16_be_sse2+0x142>
+ .byte 117,13 // jne 5bd4 <_sk_load_rgb_u16_be_sse2+0x142>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,16,255,255,255 // jmp 5ae2 <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,16,255,255,255 // jmp 5ae4 <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,110,68,94,6 // movd 0x6(%esi,%ebx,2),%xmm0
.byte 102,15,196,68,94,10,2 // pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,18 // jb 5bfa <_sk_load_rgb_u16_be_sse2+0x16a>
+ .byte 114,18 // jb 5bfc <_sk_load_rgb_u16_be_sse2+0x16a>
.byte 102,15,110,92,94,12 // movd 0xc(%esi,%ebx,2),%xmm3
.byte 102,15,196,92,94,16,2 // pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3
- .byte 233,232,254,255,255 // jmp 5ae2 <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,232,254,255,255 // jmp 5ae4 <_sk_load_rgb_u16_be_sse2+0x52>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,223,254,255,255 // jmp 5ae2 <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 233,223,254,255,255 // jmp 5ae4 <_sk_load_rgb_u16_be_sse2+0x52>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -68796,7 +68751,7 @@ _sk_store_u16_be_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 232,0,0,0,0 // call 5c0d <_sk_store_u16_be_sse2+0xa>
+ .byte 232,0,0,0,0 // call 5c0f <_sk_store_u16_be_sse2+0xa>
.byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
@@ -68806,7 +68761,7 @@ _sk_store_u16_be_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,183,35,118,0,0 // movaps 0x7623(%edi),%xmm6
+ .byte 15,40,183,17,118,0,0 // movaps 0x7611(%edi),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 193,230,2 // shl $0x2,%esi
.byte 15,40,224 // movaps %xmm0,%xmm4
@@ -68853,7 +68808,7 @@ _sk_store_u16_be_sse2:
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,98,245 // punpckldq %xmm5,%xmm6
.byte 133,255 // test %edi,%edi
- .byte 117,32 // jne 5d09 <_sk_store_u16_be_sse2+0x106>
+ .byte 117,32 // jne 5d0b <_sk_store_u16_be_sse2+0x106>
.byte 15,17,52,114 // movups %xmm6,(%edx,%esi,2)
.byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
.byte 243,15,127,100,114,16 // movdqu %xmm4,0x10(%edx,%esi,2)
@@ -68869,13 +68824,13 @@ _sk_store_u16_be_sse2:
.byte 195 // ret
.byte 102,15,214,52,114 // movq %xmm6,(%edx,%esi,2)
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,228 // je 5cf7 <_sk_store_u16_be_sse2+0xf4>
+ .byte 116,228 // je 5cf9 <_sk_store_u16_be_sse2+0xf4>
.byte 102,15,23,116,114,8 // movhpd %xmm6,0x8(%edx,%esi,2)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,217 // jb 5cf7 <_sk_store_u16_be_sse2+0xf4>
+ .byte 114,217 // jb 5cf9 <_sk_store_u16_be_sse2+0xf4>
.byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
.byte 102,15,214,100,114,16 // movq %xmm4,0x10(%edx,%esi,2)
- .byte 235,205 // jmp 5cf7 <_sk_store_u16_be_sse2+0xf4>
+ .byte 235,205 // jmp 5cf9 <_sk_store_u16_be_sse2+0xf4>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -68898,7 +68853,7 @@ _sk_load_f32_sse2:
.byte 15,16,36,23 // movups (%edi,%edx,1),%xmm4
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,71 // jne 5da1 <_sk_load_f32_sse2+0x77>
+ .byte 117,71 // jne 5da3 <_sk_load_f32_sse2+0x77>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,68,178,48 // movups 0x30(%edx,%esi,4),%xmm0
@@ -68926,17 +68881,17 @@ _sk_load_f32_sse2:
.byte 195 // ret
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 5db1 <_sk_load_f32_sse2+0x87>
+ .byte 117,8 // jne 5db3 <_sk_load_f32_sse2+0x87>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 235,184 // jmp 5d69 <_sk_load_f32_sse2+0x3f>
+ .byte 235,184 // jmp 5d6b <_sk_load_f32_sse2+0x3f>
.byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 5dc2 <_sk_load_f32_sse2+0x98>
+ .byte 114,7 // jb 5dc4 <_sk_load_f32_sse2+0x98>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,167 // jmp 5d69 <_sk_load_f32_sse2+0x3f>
+ .byte 235,167 // jmp 5d6b <_sk_load_f32_sse2+0x3f>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,162 // jmp 5d69 <_sk_load_f32_sse2+0x3f>
+ .byte 235,162 // jmp 5d6b <_sk_load_f32_sse2+0x3f>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -68962,7 +68917,7 @@ _sk_load_f32_dst_sse2:
.byte 15,16,52,23 // movups (%edi,%edx,1),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 117,97 // jne 5e63 <_sk_load_f32_dst_sse2+0x9c>
+ .byte 117,97 // jne 5e65 <_sk_load_f32_dst_sse2+0x9c>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
.byte 15,16,84,178,48 // movups 0x30(%edx,%esi,4),%xmm2
@@ -68996,17 +68951,17 @@ _sk_load_f32_dst_sse2:
.byte 195 // ret
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 5e73 <_sk_load_f32_dst_sse2+0xac>
+ .byte 117,8 // jne 5e75 <_sk_load_f32_dst_sse2+0xac>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,158 // jmp 5e11 <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,158 // jmp 5e13 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 5e84 <_sk_load_f32_dst_sse2+0xbd>
+ .byte 114,7 // jb 5e86 <_sk_load_f32_dst_sse2+0xbd>
.byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,141 // jmp 5e11 <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,141 // jmp 5e13 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,136 // jmp 5e11 <_sk_load_f32_dst_sse2+0x4a>
+ .byte 235,136 // jmp 5e13 <_sk_load_f32_dst_sse2+0x4a>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -69044,7 +68999,7 @@ _sk_store_f32_sse2:
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
.byte 133,255 // test %edi,%edi
- .byte 117,40 // jne 5f0f <_sk_store_f32_sse2+0x86>
+ .byte 117,40 // jne 5f11 <_sk_store_f32_sse2+0x86>
.byte 102,15,21,247 // unpckhpd %xmm7,%xmm6
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
@@ -69061,12 +69016,12 @@ _sk_store_f32_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,232 // je 5efc <_sk_store_f32_sse2+0x73>
+ .byte 116,232 // je 5efe <_sk_store_f32_sse2+0x73>
.byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,222 // jb 5efc <_sk_store_f32_sse2+0x73>
+ .byte 114,222 // jb 5efe <_sk_store_f32_sse2+0x73>
.byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
- .byte 235,214 // jmp 5efc <_sk_store_f32_sse2+0x73>
+ .byte 235,214 // jmp 5efe <_sk_store_f32_sse2+0x73>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -69075,7 +69030,7 @@ _sk_repeat_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5f31 <_sk_repeat_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5f33 <_sk_repeat_x_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -69086,7 +69041,7 @@ _sk_repeat_x_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,207,109,0,0 // andps 0x6dcf(%eax),%xmm5
+ .byte 15,84,168,189,109,0,0 // andps 0x6dbd(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -69107,7 +69062,7 @@ _sk_repeat_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5f83 <_sk_repeat_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5f85 <_sk_repeat_y_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -69118,7 +69073,7 @@ _sk_repeat_y_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,125,109,0,0 // andps 0x6d7d(%eax),%xmm5
+ .byte 15,84,168,107,109,0,0 // andps 0x6d6b(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -69139,7 +69094,7 @@ _sk_mirror_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 5fd5 <_sk_mirror_x_sse2+0xb>
+ .byte 232,0,0,0,0 // call 5fd7 <_sk_mirror_x_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -69148,13 +69103,13 @@ _sk_mirror_x_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 243,15,89,169,203,116,0,0 // mulss 0x74cb(%ecx),%xmm5
+ .byte 243,15,89,169,185,116,0,0 // mulss 0x74b9(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,43,109,0,0 // andps 0x6d2b(%ecx),%xmm5
+ .byte 15,84,169,25,109,0,0 // andps 0x6d19(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -69180,7 +69135,7 @@ _sk_mirror_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6049 <_sk_mirror_y_sse2+0xb>
+ .byte 232,0,0,0,0 // call 604b <_sk_mirror_y_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -69189,13 +69144,13 @@ _sk_mirror_y_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
- .byte 243,15,89,169,87,116,0,0 // mulss 0x7457(%ecx),%xmm5
+ .byte 243,15,89,169,69,116,0,0 // mulss 0x7445(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,183,108,0,0 // andps 0x6cb7(%ecx),%xmm5
+ .byte 15,84,169,165,108,0,0 // andps 0x6ca5(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -69221,12 +69176,12 @@ _sk_clamp_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 60bd <_sk_clamp_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 60bf <_sk_clamp_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,67,108,0,0 // minps 0x6c43(%eax),%xmm4
+ .byte 15,93,160,49,108,0,0 // minps 0x6c31(%eax),%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -69244,14 +69199,14 @@ _sk_repeat_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 60ed <_sk_repeat_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 60ef <_sk_repeat_x_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,184,19,108,0,0 // movaps 0x6c13(%eax),%xmm7
+ .byte 15,40,184,1,108,0,0 // movaps 0x6c01(%eax),%xmm7
.byte 15,84,247 // andps %xmm7,%xmm6
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -69275,16 +69230,16 @@ _sk_mirror_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6137 <_sk_mirror_x_1_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6139 <_sk_mirror_x_1_sse2+0xb>
.byte 88 // pop %eax
- .byte 15,40,160,57,108,0,0 // movaps 0x6c39(%eax),%xmm4
+ .byte 15,40,160,39,108,0,0 // movaps 0x6c27(%eax),%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,168,185,107,0,0 // movaps 0x6bb9(%eax),%xmm5
+ .byte 15,40,168,167,107,0,0 // movaps 0x6ba7(%eax),%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,40,184,201,107,0,0 // movaps 0x6bc9(%eax),%xmm7
+ .byte 15,40,184,183,107,0,0 // movaps 0x6bb7(%eax),%xmm7
.byte 15,84,239 // andps %xmm7,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
@@ -69314,13 +69269,13 @@ _sk_luminance_to_alpha_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 61a1 <_sk_luminance_to_alpha_sse2+0xe>
+ .byte 232,0,0,0,0 // call 61a3 <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,159,112,0,0 // mulps 0x709f(%eax),%xmm0
- .byte 15,89,136,175,112,0,0 // mulps 0x70af(%eax),%xmm1
+ .byte 15,89,128,141,112,0,0 // mulps 0x708d(%eax),%xmm0
+ .byte 15,89,136,157,112,0,0 // mulps 0x709d(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,191,112,0,0 // mulps 0x70bf(%eax),%xmm3
+ .byte 15,89,152,173,112,0,0 // mulps 0x70ad(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69707,7 +69662,7 @@ _sk_evenly_spaced_gradient_sse2:
.byte 86 // push %esi
.byte 131,236,60 // sub $0x3c,%esp
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 6637 <_sk_evenly_spaced_gradient_sse2+0x12>
+ .byte 232,0,0,0,0 // call 6639 <_sk_evenly_spaced_gradient_sse2+0x12>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -69716,12 +69671,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,57,108,0,0 // movdqa 0x6c39(%edx),%xmm2
+ .byte 102,15,111,146,39,108,0,0 // movdqa 0x6c27(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,249,105,0,0 // por 0x69f9(%edx),%xmm2
+ .byte 102,15,235,146,231,105,0,0 // por 0x69e7(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,73,108,0,0 // por 0x6c49(%edx),%xmm1
- .byte 15,88,138,89,108,0,0 // addps 0x6c59(%edx),%xmm1
+ .byte 102,15,235,138,55,108,0,0 // por 0x6c37(%edx),%xmm1
+ .byte 15,88,138,71,108,0,0 // addps 0x6c47(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -69827,18 +69782,18 @@ _sk_gauss_a_to_rgba_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 67f0 <_sk_gauss_a_to_rgba_sse2+0xb>
+ .byte 232,0,0,0,0 // call 67f2 <_sk_gauss_a_to_rgba_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,176,106,0,0 // movaps 0x6ab0(%eax),%xmm0
+ .byte 15,40,128,158,106,0,0 // movaps 0x6a9e(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,192,106,0,0 // addps 0x6ac0(%eax),%xmm0
+ .byte 15,88,128,174,106,0,0 // addps 0x6aae(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,208,106,0,0 // addps 0x6ad0(%eax),%xmm0
+ .byte 15,88,128,190,106,0,0 // addps 0x6abe(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,224,106,0,0 // addps 0x6ae0(%eax),%xmm0
+ .byte 15,88,128,206,106,0,0 // addps 0x6ace(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,240,106,0,0 // addps 0x6af0(%eax),%xmm0
+ .byte 15,88,128,222,106,0,0 // addps 0x6ade(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
@@ -69866,7 +69821,7 @@ _sk_gradient_sse2:
.byte 139,10 // mov (%edx),%ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,249,2 // cmp $0x2,%ecx
- .byte 114,33 // jb 6877 <_sk_gradient_sse2+0x3a>
+ .byte 114,33 // jb 6879 <_sk_gradient_sse2+0x3a>
.byte 139,114,36 // mov 0x24(%edx),%esi
.byte 73 // dec %ecx
.byte 131,198,4 // add $0x4,%esi
@@ -69877,7 +69832,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 131,198,4 // add $0x4,%esi
.byte 73 // dec %ecx
- .byte 117,234 // jne 6861 <_sk_gradient_sse2+0x24>
+ .byte 117,234 // jne 6863 <_sk_gradient_sse2+0x24>
.byte 102,15,126,206 // movd %xmm1,%esi
.byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
.byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
@@ -70030,7 +69985,7 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 6a7f <_sk_xy_to_unit_angle_sse2+0x18>
+ .byte 232,0,0,0,0 // call 6a81 <_sk_xy_to_unit_angle_sse2+0x18>
.byte 88 // pop %eax
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
@@ -70045,30 +70000,30 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,113,104,0,0 // movaps 0x6871(%eax),%xmm0
+ .byte 15,40,128,95,104,0,0 // movaps 0x685f(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,129,104,0,0 // addps 0x6881(%eax),%xmm0
+ .byte 15,88,128,111,104,0,0 // addps 0x686f(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,145,104,0,0 // addps 0x6891(%eax),%xmm0
+ .byte 15,88,128,127,104,0,0 // addps 0x687f(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,161,104,0,0 // addps 0x68a1(%eax),%xmm0
+ .byte 15,88,128,143,104,0,0 // addps 0x688f(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,177,104,0,0 // movaps 0x68b1(%eax),%xmm6
+ .byte 15,40,176,159,104,0,0 // movaps 0x689f(%eax),%xmm6
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,113,98,0,0 // movaps 0x6271(%eax),%xmm0
+ .byte 15,40,128,95,98,0,0 // movaps 0x625f(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,129,98,0,0 // movaps 0x6281(%eax),%xmm5
+ .byte 15,40,168,111,98,0,0 // movaps 0x626f(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
@@ -70129,15 +70084,15 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6b9c <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x31>
+ .byte 232,0,0,0,0 // call 6b9e <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,164,103,0,0 // mulps 0x67a4(%edx),%xmm4
- .byte 15,89,130,180,103,0,0 // mulps 0x67b4(%edx),%xmm0
+ .byte 15,89,162,146,103,0,0 // mulps 0x6792(%edx),%xmm4
+ .byte 15,89,130,162,103,0,0 // mulps 0x67a2(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -70145,11 +70100,11 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,162,84,102,0,0 // xorps 0x6654(%edx),%xmm4
+ .byte 15,87,162,66,102,0,0 // xorps 0x6642(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 243,15,16,105,68 // movss 0x44(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,170,84,97,0,0 // mulps 0x6154(%edx),%xmm5
+ .byte 15,89,170,66,97,0,0 // mulps 0x6142(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,95,196 // maxps %xmm4,%xmm0
@@ -70180,15 +70135,15 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6c3a <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x31>
+ .byte 232,0,0,0,0 // call 6c3c <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,64 // movss 0x40(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,6,103,0,0 // mulps 0x6706(%edx),%xmm4
- .byte 15,89,130,22,103,0,0 // mulps 0x6716(%edx),%xmm0
+ .byte 15,89,162,244,102,0,0 // mulps 0x66f4(%edx),%xmm4
+ .byte 15,89,130,4,103,0,0 // mulps 0x6704(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -70196,11 +70151,11 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,162,182,101,0,0 // xorps 0x65b6(%edx),%xmm4
+ .byte 15,87,162,164,101,0,0 // xorps 0x65a4(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 243,15,16,105,68 // movss 0x44(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,170,182,96,0,0 // mulps 0x60b6(%edx),%xmm5
+ .byte 15,89,170,164,96,0,0 // mulps 0x60a4(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
@@ -70220,7 +70175,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6cb2 <_sk_xy_to_2pt_conical_linear_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6cb4 <_sk_xy_to_2pt_conical_linear_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -70229,7 +70184,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,236 // mulss %xmm4,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,169,142,102,0,0 // mulps 0x668e(%ecx),%xmm5
+ .byte 15,89,169,124,102,0,0 // mulps 0x667c(%ecx),%xmm5
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
@@ -70237,7 +70192,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,228 // mulss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,129,62,101,0,0 // xorps 0x653e(%ecx),%xmm0
+ .byte 15,87,129,44,101,0,0 // xorps 0x652c(%ecx),%xmm0
.byte 15,94,197 // divps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -70314,16 +70269,16 @@ _sk_save_xy_sse2:
.byte 131,236,24 // sub $0x18,%esp
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 6d9b <_sk_save_xy_sse2+0x12>
+ .byte 232,0,0,0,0 // call 6d9d <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,85,95,0,0 // movaps 0x5f55(%eax),%xmm4
+ .byte 15,40,160,67,95,0,0 // movaps 0x5f43(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,101,95,0,0 // movaps 0x5f65(%eax),%xmm2
+ .byte 15,40,144,83,95,0,0 // movaps 0x5f53(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -70398,15 +70353,15 @@ _sk_bilinear_nx_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6e83 <_sk_bilinear_nx_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6e85 <_sk_bilinear_nx_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,221,100,0,0 // addps 0x64dd(%eax),%xmm0
- .byte 15,40,168,125,94,0,0 // movaps 0x5e7d(%eax),%xmm5
+ .byte 15,88,128,203,100,0,0 // addps 0x64cb(%eax),%xmm0
+ .byte 15,40,168,107,94,0,0 // movaps 0x5e6b(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70427,14 +70382,14 @@ _sk_bilinear_px_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6ec9 <_sk_bilinear_px_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6ecb <_sk_bilinear_px_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,39,94,0,0 // addps 0x5e27(%eax),%xmm0
+ .byte 15,88,128,21,94,0,0 // addps 0x5e15(%eax),%xmm0
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70454,15 +70409,15 @@ _sk_bilinear_ny_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6f05 <_sk_bilinear_ny_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6f07 <_sk_bilinear_ny_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,91,100,0,0 // addps 0x645b(%eax),%xmm1
- .byte 15,40,168,251,93,0,0 // movaps 0x5dfb(%eax),%xmm5
+ .byte 15,88,136,73,100,0,0 // addps 0x6449(%eax),%xmm1
+ .byte 15,40,168,233,93,0,0 // movaps 0x5de9(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70483,14 +70438,14 @@ _sk_bilinear_py_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6f4c <_sk_bilinear_py_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6f4e <_sk_bilinear_py_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,164,93,0,0 // addps 0x5da4(%eax),%xmm1
+ .byte 15,88,136,146,93,0,0 // addps 0x5d92(%eax),%xmm1
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70510,20 +70465,20 @@ _sk_bicubic_n3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6f89 <_sk_bicubic_n3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6f8b <_sk_bicubic_n3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,231,99,0,0 // addps 0x63e7(%eax),%xmm0
- .byte 15,40,168,119,93,0,0 // movaps 0x5d77(%eax),%xmm5
+ .byte 15,88,128,213,99,0,0 // addps 0x63d5(%eax),%xmm0
+ .byte 15,40,168,101,93,0,0 // movaps 0x5d65(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,247,99,0,0 // mulps 0x63f7(%eax),%xmm5
- .byte 15,88,168,103,95,0,0 // addps 0x5f67(%eax),%xmm5
+ .byte 15,89,168,229,99,0,0 // mulps 0x63e5(%eax),%xmm5
+ .byte 15,88,168,85,95,0,0 // addps 0x5f55(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70544,23 +70499,23 @@ _sk_bicubic_n1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6fe6 <_sk_bicubic_n1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6fe8 <_sk_bicubic_n1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,122,99,0,0 // addps 0x637a(%eax),%xmm0
- .byte 15,40,168,26,93,0,0 // movaps 0x5d1a(%eax),%xmm5
+ .byte 15,88,128,104,99,0,0 // addps 0x6368(%eax),%xmm0
+ .byte 15,40,168,8,93,0,0 // movaps 0x5d08(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,170,99,0,0 // movaps 0x63aa(%eax),%xmm4
+ .byte 15,40,160,152,99,0,0 // movaps 0x6398(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,186,99,0,0 // addps 0x63ba(%eax),%xmm4
+ .byte 15,88,160,168,99,0,0 // addps 0x63a8(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,10,93,0,0 // addps 0x5d0a(%eax),%xmm4
+ .byte 15,88,160,248,92,0,0 // addps 0x5cf8(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,202,99,0,0 // addps 0x63ca(%eax),%xmm4
+ .byte 15,88,160,184,99,0,0 // addps 0x63b8(%eax),%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70580,22 +70535,22 @@ _sk_bicubic_p1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7051 <_sk_bicubic_p1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7053 <_sk_bicubic_p1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,159,92,0,0 // movaps 0x5c9f(%eax),%xmm4
+ .byte 15,40,160,141,92,0,0 // movaps 0x5c8d(%eax),%xmm4
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,174,128,0,0,0 // movups 0x80(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,63,99,0,0 // movaps 0x633f(%eax),%xmm6
+ .byte 15,40,176,45,99,0,0 // movaps 0x632d(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,79,99,0,0 // addps 0x634f(%eax),%xmm6
+ .byte 15,88,176,61,99,0,0 // addps 0x633d(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,95,99,0,0 // addps 0x635f(%eax),%xmm6
+ .byte 15,88,176,77,99,0,0 // addps 0x634d(%eax),%xmm6
.byte 15,17,182,0,1,0,0 // movups %xmm6,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70615,18 +70570,18 @@ _sk_bicubic_p3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 70b1 <_sk_bicubic_p3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 70b3 <_sk_bicubic_p3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,239,98,0,0 // addps 0x62ef(%eax),%xmm0
+ .byte 15,88,128,221,98,0,0 // addps 0x62dd(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,207,98,0,0 // mulps 0x62cf(%eax),%xmm4
- .byte 15,88,160,63,94,0,0 // addps 0x5e3f(%eax),%xmm4
+ .byte 15,89,160,189,98,0,0 // mulps 0x62bd(%eax),%xmm4
+ .byte 15,88,160,45,94,0,0 // addps 0x5e2d(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70647,20 +70602,20 @@ _sk_bicubic_n3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7104 <_sk_bicubic_n3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7106 <_sk_bicubic_n3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,108,98,0,0 // addps 0x626c(%eax),%xmm1
- .byte 15,40,168,252,91,0,0 // movaps 0x5bfc(%eax),%xmm5
+ .byte 15,88,136,90,98,0,0 // addps 0x625a(%eax),%xmm1
+ .byte 15,40,168,234,91,0,0 // movaps 0x5bea(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,124,98,0,0 // mulps 0x627c(%eax),%xmm5
- .byte 15,88,168,236,93,0,0 // addps 0x5dec(%eax),%xmm5
+ .byte 15,89,168,106,98,0,0 // mulps 0x626a(%eax),%xmm5
+ .byte 15,88,168,218,93,0,0 // addps 0x5dda(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70681,23 +70636,23 @@ _sk_bicubic_n1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7162 <_sk_bicubic_n1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7164 <_sk_bicubic_n1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,254,97,0,0 // addps 0x61fe(%eax),%xmm1
- .byte 15,40,168,158,91,0,0 // movaps 0x5b9e(%eax),%xmm5
+ .byte 15,88,136,236,97,0,0 // addps 0x61ec(%eax),%xmm1
+ .byte 15,40,168,140,91,0,0 // movaps 0x5b8c(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,46,98,0,0 // movaps 0x622e(%eax),%xmm4
+ .byte 15,40,160,28,98,0,0 // movaps 0x621c(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,62,98,0,0 // addps 0x623e(%eax),%xmm4
+ .byte 15,88,160,44,98,0,0 // addps 0x622c(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,142,91,0,0 // addps 0x5b8e(%eax),%xmm4
+ .byte 15,88,160,124,91,0,0 // addps 0x5b7c(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,78,98,0,0 // addps 0x624e(%eax),%xmm4
+ .byte 15,88,160,60,98,0,0 // addps 0x623c(%eax),%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70717,22 +70672,22 @@ _sk_bicubic_p1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 71ce <_sk_bicubic_p1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 71d0 <_sk_bicubic_p1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,34,91,0,0 // movaps 0x5b22(%eax),%xmm4
+ .byte 15,40,160,16,91,0,0 // movaps 0x5b10(%eax),%xmm4
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,174,192,0,0,0 // movups 0xc0(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,194,97,0,0 // movaps 0x61c2(%eax),%xmm6
+ .byte 15,40,176,176,97,0,0 // movaps 0x61b0(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,210,97,0,0 // addps 0x61d2(%eax),%xmm6
+ .byte 15,88,176,192,97,0,0 // addps 0x61c0(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,226,97,0,0 // addps 0x61e2(%eax),%xmm6
+ .byte 15,88,176,208,97,0,0 // addps 0x61d0(%eax),%xmm6
.byte 15,17,182,64,1,0,0 // movups %xmm6,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70752,18 +70707,18 @@ _sk_bicubic_p3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 722f <_sk_bicubic_p3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7231 <_sk_bicubic_p3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,64 // movups 0x40(%esi),%xmm1
.byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,113,97,0,0 // addps 0x6171(%eax),%xmm1
+ .byte 15,88,136,95,97,0,0 // addps 0x615f(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,81,97,0,0 // mulps 0x6151(%eax),%xmm4
- .byte 15,88,160,193,92,0,0 // addps 0x5cc1(%eax),%xmm4
+ .byte 15,89,160,63,97,0,0 // mulps 0x613f(%eax),%xmm4
+ .byte 15,88,160,175,92,0,0 // addps 0x5caf(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70906,7 +70861,7 @@ _sk_clut_3D_sse2:
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp)
- .byte 232,0,0,0,0 // call 7415 <_sk_clut_3D_sse2+0xee>
+ .byte 232,0,0,0,0 // call 7417 <_sk_clut_3D_sse2+0xee>
.byte 90 // pop %edx
.byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
.byte 102,15,127,133,8,255,255,255 // movdqa %xmm0,-0xf8(%ebp)
@@ -70914,7 +70869,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,162,187,95,0,0 // movdqa 0x5fbb(%edx),%xmm4
+ .byte 102,15,111,162,169,95,0,0 // movdqa 0x5fa9(%edx),%xmm4
.byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -70954,7 +70909,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,248 // unpcklps %xmm0,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,130,43,89,0,0 // movdqa 0x592b(%edx),%xmm0
+ .byte 102,15,111,130,25,89,0,0 // movdqa 0x5919(%edx),%xmm0
.byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
@@ -70971,7 +70926,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,241 // unpcklpd %xmm1,%xmm6
- .byte 15,40,130,171,95,0,0 // movaps 0x5fab(%edx),%xmm0
+ .byte 15,40,130,153,95,0,0 // movaps 0x5f99(%edx),%xmm0
.byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
@@ -71591,7 +71546,7 @@ _sk_clut_4D_sse2:
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,127,93,152 // movdqa %xmm3,-0x68(%ebp)
- .byte 232,0,0,0,0 // call 7fa1 <_sk_clut_4D_sse2+0x165>
+ .byte 232,0,0,0,0 // call 7fa3 <_sk_clut_4D_sse2+0x165>
.byte 89 // pop %ecx
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,41,133,168,254,255,255 // movaps %xmm0,-0x158(%ebp)
@@ -71602,7 +71557,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,214 // paddd %xmm6,%xmm2
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,161,47,84,0,0 // movdqa 0x542f(%ecx),%xmm4
+ .byte 102,15,111,161,29,84,0,0 // movdqa 0x541d(%ecx),%xmm4
.byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,204 // pmuludq %xmm4,%xmm1
@@ -71644,7 +71599,7 @@ _sk_clut_4D_sse2:
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
.byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,137,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm1
+ .byte 102,15,254,137,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -71659,7 +71614,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,185,31,84,0,0 // movaps 0x541f(%ecx),%xmm7
+ .byte 15,40,185,13,84,0,0 // movaps 0x540d(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
@@ -71680,7 +71635,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
.byte 102,15,254,212 // paddd %xmm4,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,161,47,84,0,0 // movdqa 0x542f(%ecx),%xmm4
+ .byte 102,15,111,161,29,84,0,0 // movdqa 0x541d(%ecx),%xmm4
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -71716,7 +71671,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm0
+ .byte 102,15,254,129,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm0
.byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -71800,7 +71755,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 102,15,20,240 // unpcklpd %xmm0,%xmm6
- .byte 102,15,254,137,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm1
+ .byte 102,15,254,137,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
@@ -71818,7 +71773,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,47,84,0,0 // movdqa 0x542f(%ecx),%xmm2
+ .byte 102,15,111,145,29,84,0,0 // movdqa 0x541d(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -71854,7 +71809,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,169,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm5
+ .byte 102,15,254,169,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm5
.byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
@@ -71914,7 +71869,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,153,47,84,0,0 // movdqa 0x542f(%ecx),%xmm3
+ .byte 102,15,111,153,29,84,0,0 // movdqa 0x541d(%ecx),%xmm3
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -71953,7 +71908,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,254,129,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm0
+ .byte 102,15,254,129,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm0
.byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
@@ -72005,7 +71960,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 102,15,111,137,159,77,0,0 // movdqa 0x4d9f(%ecx),%xmm1
+ .byte 102,15,111,137,141,77,0,0 // movdqa 0x4d8d(%ecx),%xmm1
.byte 102,15,254,249 // paddd %xmm1,%xmm7
.byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -72039,7 +71994,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,153,47,84,0,0 // movdqa 0x542f(%ecx),%xmm3
+ .byte 102,15,111,153,29,84,0,0 // movdqa 0x541d(%ecx),%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
@@ -72096,7 +72051,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,47,84,0,0 // movdqa 0x542f(%ecx),%xmm1
+ .byte 102,15,111,137,29,84,0,0 // movdqa 0x541d(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -72133,7 +72088,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,212 // unpcklps %xmm4,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm0
+ .byte 102,15,254,129,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm0
.byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -72201,7 +72156,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,129,47,84,0,0 // movdqa 0x542f(%ecx),%xmm0
+ .byte 102,15,111,129,29,84,0,0 // movdqa 0x541d(%ecx),%xmm0
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -72240,7 +72195,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,145,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm2
+ .byte 102,15,254,145,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72292,7 +72247,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,208 // unpcklps %xmm0,%xmm2
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,137,159,77,0,0 // movdqa 0x4d9f(%ecx),%xmm1
+ .byte 102,15,111,137,141,77,0,0 // movdqa 0x4d8d(%ecx),%xmm1
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
@@ -72327,7 +72282,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,169,47,84,0,0 // movdqa 0x542f(%ecx),%xmm5
+ .byte 102,15,111,169,29,84,0,0 // movdqa 0x541d(%ecx),%xmm5
.byte 102,15,111,221 // movdqa %xmm5,%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,227 // pmuludq %xmm3,%xmm4
@@ -72383,7 +72338,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,47,84,0,0 // movdqa 0x542f(%ecx),%xmm2
+ .byte 102,15,111,145,29,84,0,0 // movdqa 0x541d(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -72419,7 +72374,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,185,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm7
+ .byte 102,15,254,185,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm7
.byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
@@ -72469,7 +72424,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,47,84,0,0 // movdqa 0x542f(%ecx),%xmm2
+ .byte 102,15,111,145,29,84,0,0 // movdqa 0x541d(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,111,250 // movdqa %xmm2,%xmm7
@@ -72508,7 +72463,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm2
+ .byte 102,15,254,145,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72562,7 +72517,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,252 // unpcklps %xmm4,%xmm7
.byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,254,153,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm3
+ .byte 102,15,254,153,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -72595,7 +72550,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,47,84,0,0 // movdqa 0x542f(%ecx),%xmm1
+ .byte 102,15,111,137,29,84,0,0 // movdqa 0x541d(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -72635,7 +72590,7 @@ _sk_clut_4D_sse2:
.byte 15,20,225 // unpcklps %xmm1,%xmm4
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
.byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp)
- .byte 102,15,254,129,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm0
+ .byte 102,15,254,129,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -72689,7 +72644,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,159,77,0,0 // paddd 0x4d9f(%ecx),%xmm2
+ .byte 102,15,254,145,141,77,0,0 // paddd 0x4d8d(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72758,7 +72713,7 @@ _sk_clut_4D_sse2:
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,95,77,0,0 // movaps 0x4d5f(%ecx),%xmm3
+ .byte 15,40,153,77,77,0,0 // movaps 0x4d4d(%ecx),%xmm3
.byte 80 // push %eax
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,82,4 // call *0x4(%edx)
@@ -72769,6 +72724,8 @@ _sk_clut_4D_sse2:
.byte 93 // pop %ebp
.byte 195 // ret
.byte 144 // nop
+ .byte 144 // nop
+ .byte 144 // nop
HIDDEN _sk_start_pipeline_sse2_lowp
.globl _sk_start_pipeline_sse2_lowp
@@ -72782,7 +72739,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,236,92 // sub $0x5c,%esp
.byte 139,125,12 // mov 0xc(%ebp),%edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,131,193,0,0,0 // jae 94c2 <_sk_start_pipeline_sse2_lowp+0xd6>
+ .byte 15,131,193,0,0,0 // jae 94c6 <_sk_start_pipeline_sse2_lowp+0xd6>
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,117,24 // mov 0x18(%ebp),%esi
@@ -72796,7 +72753,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 137,223 // mov %ebx,%edi
.byte 137,243 // mov %esi,%ebx
- .byte 119,77 // ja 9474 <_sk_start_pipeline_sse2_lowp+0x88>
+ .byte 119,77 // ja 9478 <_sk_start_pipeline_sse2_lowp+0x88>
.byte 139,117,8 // mov 0x8(%ebp),%esi
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
@@ -72818,13 +72775,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,198,16 // add $0x10,%esi
.byte 57,214 // cmp %edx,%esi
.byte 137,198 // mov %eax,%esi
- .byte 118,182 // jbe 942a <_sk_start_pipeline_sse2_lowp+0x3e>
+ .byte 118,182 // jbe 942e <_sk_start_pipeline_sse2_lowp+0x3e>
.byte 137,209 // mov %edx,%ecx
.byte 41,193 // sub %eax,%ecx
.byte 137,222 // mov %ebx,%esi
.byte 137,251 // mov %edi,%ebx
.byte 139,125,240 // mov -0x10(%ebp),%edi
- .byte 116,55 // je 94b8 <_sk_start_pipeline_sse2_lowp+0xcc>
+ .byte 116,55 // je 94bc <_sk_start_pipeline_sse2_lowp+0xcc>
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
.byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
@@ -72842,7 +72799,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 71 // inc %edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,133,86,255,255,255 // jne 9418 <_sk_start_pipeline_sse2_lowp+0x2c>
+ .byte 15,133,86,255,255,255 // jne 941c <_sk_start_pipeline_sse2_lowp+0x2c>
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -72914,7 +72871,7 @@ _sk_black_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 9571 <_sk_black_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 9575 <_sk_black_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72933,7 +72890,7 @@ _sk_black_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,111,62,0,0 // movaps 0x3e6f(%eax),%xmm3
+ .byte 15,40,152,91,62,0,0 // movaps 0x3e5b(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -72955,7 +72912,7 @@ _sk_white_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 95dc <_sk_white_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 95e0 <_sk_white_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72974,7 +72931,7 @@ _sk_white_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,128,4,62,0,0 // movaps 0x3e04(%eax),%xmm0
+ .byte 15,40,128,240,61,0,0 // movaps 0x3df0(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -72995,16 +72952,16 @@ _sk_set_rgb_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9646 <_sk_set_rgb_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 964a <_sk_set_rgb_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,150,94,62,0,0 // movss 0x3e5e(%esi),%xmm2
+ .byte 243,15,16,150,74,62,0,0 // movss 0x3e4a(%esi),%xmm2
.byte 243,15,16,7 // movss (%edi),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,15,16,142,90,62,0,0 // movss 0x3e5a(%esi),%xmm1
+ .byte 243,15,16,142,70,62,0,0 // movss 0x3e46(%esi),%xmm1
.byte 243,15,88,193 // addss %xmm1,%xmm0
.byte 243,15,44,240 // cvttss2si %xmm0,%esi
.byte 102,15,110,198 // movd %esi,%xmm0
@@ -73053,7 +73010,7 @@ _sk_premul_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 970a <_sk_premul_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 970e <_sk_premul_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -73062,7 +73019,7 @@ _sk_premul_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,186,214,60,0,0 // movdqa 0x3cd6(%edx),%xmm7
+ .byte 102,15,111,186,194,60,0,0 // movdqa 0x3cc2(%edx),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73196,12 +73153,12 @@ _sk_invert_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9884 <_sk_invert_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9888 <_sk_invert_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,111,160,92,59,0,0 // movdqa 0x3b5c(%eax),%xmm4
+ .byte 102,15,111,160,72,59,0,0 // movdqa 0x3b48(%eax),%xmm4
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,249,232 // psubw %xmm0,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -73283,11 +73240,11 @@ _sk_srcatop_sse2_lowp:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 997c <_sk_srcatop_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call 9980 <_sk_srcatop_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,128,100,58,0,0 // movdqa 0x3a64(%eax),%xmm0
+ .byte 102,15,111,128,80,58,0,0 // movdqa 0x3a50(%eax),%xmm0
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
.byte 102,15,253,208 // paddw %xmm0,%xmm2
@@ -73345,12 +73302,12 @@ _sk_dstatop_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9a50 <_sk_dstatop_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9a54 <_sk_dstatop_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,111,184,144,57,0,0 // movdqa 0x3990(%eax),%xmm7
+ .byte 102,15,111,184,124,57,0,0 // movdqa 0x397c(%eax),%xmm7
.byte 102,15,253,247 // paddw %xmm7,%xmm6
.byte 102,15,213,227 // pmullw %xmm3,%xmm4
.byte 102,15,253,231 // paddw %xmm7,%xmm4
@@ -73403,7 +73360,7 @@ _sk_srcin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9b11 <_sk_srcin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9b15 <_sk_srcin_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -73412,7 +73369,7 @@ _sk_srcin_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,190,207,56,0,0 // movdqa 0x38cf(%esi),%xmm7
+ .byte 102,15,111,190,187,56,0,0 // movdqa 0x38bb(%esi),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73451,14 +73408,14 @@ _sk_dstin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9ba8 <_sk_dstin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9bac <_sk_dstin_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,184,56,56,0,0 // movdqa 0x3838(%eax),%xmm7
+ .byte 102,15,111,184,36,56,0,0 // movdqa 0x3824(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -73502,14 +73459,14 @@ _sk_srcout_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9c50 <_sk_srcout_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9c54 <_sk_srcout_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,182,144,55,0,0 // movdqa 0x3790(%esi),%xmm6
+ .byte 102,15,111,182,124,55,0,0 // movdqa 0x377c(%esi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73553,11 +73510,11 @@ _sk_dstout_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call 9cf3 <_sk_dstout_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call 9cf7 <_sk_dstout_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,184,237,54,0,0 // movdqa 0x36ed(%eax),%xmm7
+ .byte 102,15,111,184,217,54,0,0 // movdqa 0x36d9(%eax),%xmm7
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -73609,9 +73566,9 @@ _sk_srcover_sse2_lowp:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 9daf <_sk_srcover_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call 9db3 <_sk_srcover_sse2_lowp+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,136,49,54,0,0 // movdqa 0x3631(%eax),%xmm1
+ .byte 102,15,111,136,29,54,0,0 // movdqa 0x361d(%eax),%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -73670,7 +73627,7 @@ _sk_dstover_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9e7f <_sk_dstover_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9e83 <_sk_dstover_sse2_lowp+0xd>
.byte 95 // pop %edi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -73678,7 +73635,7 @@ _sk_dstover_sse2_lowp:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,183,97,53,0,0 // movdqa 0x3561(%edi),%xmm6
+ .byte 102,15,111,183,77,53,0,0 // movdqa 0x354d(%edi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73724,12 +73681,12 @@ _sk_modulate_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9f34 <_sk_modulate_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9f38 <_sk_modulate_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,172,52,0,0 // movdqa 0x34ac(%eax),%xmm7
+ .byte 102,15,111,184,152,52,0,0 // movdqa 0x3498(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73772,10 +73729,10 @@ _sk_multiply_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9fd0 <_sk_multiply_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9fd4 <_sk_multiply_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,160,16,52,0,0 // movdqa 0x3410(%eax),%xmm4
+ .byte 102,15,111,160,252,51,0,0 // movdqa 0x33fc(%eax),%xmm4
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,253,244 // paddw %xmm4,%xmm6
.byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6
@@ -73845,17 +73802,17 @@ _sk_plus__sse2_lowp:
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a0d1 <_sk_plus__sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a0d5 <_sk_plus__sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
- .byte 102,15,111,168,31,51,0,0 // movdqa 0x331f(%eax),%xmm5
+ .byte 102,15,111,168,11,51,0,0 // movdqa 0x330b(%eax),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,217,197 // psubusw %xmm5,%xmm0
.byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0
.byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,176,15,51,0,0 // movdqa 0x330f(%eax),%xmm6
+ .byte 102,15,111,176,251,50,0,0 // movdqa 0x32fb(%eax),%xmm6
.byte 102,15,223,198 // pandn %xmm6,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4
@@ -73916,14 +73873,14 @@ _sk_screen_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a1c9 <_sk_screen_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a1cd <_sk_screen_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,176,23,50,0,0 // movdqa 0x3217(%eax),%xmm6
+ .byte 102,15,111,176,3,50,0,0 // movdqa 0x3203(%eax),%xmm6
.byte 102,15,253,206 // paddw %xmm6,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -73981,9 +73938,9 @@ _sk_xor__sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call a2a9 <_sk_xor__sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call a2ad <_sk_xor__sse2_lowp+0x12>
.byte 88 // pop %eax
- .byte 102,15,111,176,55,49,0,0 // movdqa 0x3137(%eax),%xmm6
+ .byte 102,15,111,176,35,49,0,0 // movdqa 0x3123(%eax),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -74050,7 +74007,7 @@ _sk_darken_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a39e <_sk_darken_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a3a2 <_sk_darken_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -74061,7 +74018,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,98,48,0,0 // movdqa 0x3062(%eax),%xmm7
+ .byte 102,15,111,184,78,48,0,0 // movdqa 0x304e(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74070,7 +74027,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,223,233 // pandn %xmm1,%xmm5
.byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,111,128,66,48,0,0 // movdqa 0x3042(%eax),%xmm0
+ .byte 102,15,111,128,46,48,0,0 // movdqa 0x302e(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -74161,7 +74118,7 @@ _sk_lighten_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a547 <_sk_lighten_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a54b <_sk_lighten_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -74170,7 +74127,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,185,46,0,0 // movdqa 0x2eb9(%eax),%xmm7
+ .byte 102,15,111,184,165,46,0,0 // movdqa 0x2ea5(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74179,7 +74136,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,153,46,0,0 // movdqa 0x2e99(%eax),%xmm0
+ .byte 102,15,111,128,133,46,0,0 // movdqa 0x2e85(%eax),%xmm0
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
@@ -74269,7 +74226,7 @@ _sk_difference_sse2_lowp:
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a6e5 <_sk_difference_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a6e9 <_sk_difference_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -74280,7 +74237,7 @@ _sk_difference_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,27,45,0,0 // movdqa 0x2d1b(%eax),%xmm7
+ .byte 102,15,111,184,7,45,0,0 // movdqa 0x2d07(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74289,11 +74246,11 @@ _sk_difference_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,251,44,0,0 // movdqa 0x2cfb(%eax),%xmm0
+ .byte 102,15,111,128,231,44,0,0 // movdqa 0x2ce7(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,111,128,43,45,0,0 // movdqa 0x2d2b(%eax),%xmm0
+ .byte 102,15,111,128,23,45,0,0 // movdqa 0x2d17(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,249,213 // psubw %xmm5,%xmm2
@@ -74382,16 +74339,16 @@ _sk_exclusion_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a899 <_sk_exclusion_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a89d <_sk_exclusion_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,184,71,43,0,0 // movdqa 0x2b47(%eax),%xmm7
+ .byte 102,15,111,184,51,43,0,0 // movdqa 0x2b33(%eax),%xmm7
.byte 102,15,253,207 // paddw %xmm7,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,111,176,119,43,0,0 // movdqa 0x2b77(%eax),%xmm6
+ .byte 102,15,111,176,99,43,0,0 // movdqa 0x2b63(%eax),%xmm6
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
@@ -74452,9 +74409,9 @@ _sk_hardlight_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call a993 <_sk_hardlight_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call a997 <_sk_hardlight_sse2_lowp+0x1c>
.byte 88 // pop %eax
- .byte 102,15,111,184,77,42,0,0 // movdqa 0x2a4d(%eax),%xmm7
+ .byte 102,15,111,184,57,42,0,0 // movdqa 0x2a39(%eax),%xmm7
.byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2
@@ -74481,7 +74438,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,15,249,209 // psubw %xmm1,%xmm2
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,128,109,42,0,0 // movdqa 0x2a6d(%eax),%xmm0
+ .byte 102,15,111,128,89,42,0,0 // movdqa 0x2a59(%eax),%xmm0
.byte 102,15,239,216 // pxor %xmm0,%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
@@ -74588,10 +74545,10 @@ _sk_overlay_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call abb5 <_sk_overlay_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call abb9 <_sk_overlay_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,184,43,40,0,0 // movdqa 0x282b(%eax),%xmm7
+ .byte 102,15,111,184,23,40,0,0 // movdqa 0x2817(%eax),%xmm7
.byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,208 // psubw %xmm0,%xmm2
@@ -74618,7 +74575,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,249,234 // psubw %xmm2,%xmm5
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,144,75,40,0,0 // movdqa 0x284b(%eax),%xmm2
+ .byte 102,15,111,144,55,40,0,0 // movdqa 0x2837(%eax),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,239,226 // pxor %xmm2,%xmm4
.byte 102,15,239,194 // pxor %xmm2,%xmm0
@@ -74748,10 +74705,10 @@ _sk_load_8888_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ae24 <_sk_load_8888_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call ae28 <_sk_load_8888_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja ae4a <_sk_load_8888_sse2_lowp+0x56>
+ .byte 119,32 // ja ae4e <_sk_load_8888_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -74760,14 +74717,14 @@ _sk_load_8888_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp ae93 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,73 // jmp ae97 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp ae93 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,61 // jmp ae97 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp ae93 <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,43 // jmp ae97 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -74784,7 +74741,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,188,37,0,0 // movdqa 0x25bc(%edi),%xmm5
+ .byte 102,15,111,175,168,37,0,0 // movdqa 0x25a8(%edi),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -74864,10 +74821,10 @@ _sk_load_8888_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call afb1 <_sk_load_8888_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call afb5 <_sk_load_8888_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja afd7 <_sk_load_8888_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja afdb <_sk_load_8888_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -74876,14 +74833,14 @@ _sk_load_8888_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp b020 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp b024 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp b020 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp b024 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp b020 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp b024 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -74900,7 +74857,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,47,36,0,0 // movdqa 0x242f(%edi),%xmm2
+ .byte 102,15,111,151,27,36,0,0 // movdqa 0x241b(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -74994,19 +74951,19 @@ _sk_store_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call b17c <_sk_store_8888_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call b180 <_sk_store_8888_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja b199 <_sk_store_8888_sse2_lowp+0x91>
+ .byte 119,19 // ja b19d <_sk_store_8888_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp b1f6 <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,93 // jmp b1fa <_sk_store_8888_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp b1f6 <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,80 // jmp b1fa <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -75014,7 +74971,7 @@ _sk_store_8888_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp b1f6 <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,48 // jmp b1fa <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -75051,7 +75008,7 @@ _sk_store_8888_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne b242 <_sk_store_8888_sse2_lowp+0x13a>
+ .byte 117,0 // jne b246 <_sk_store_8888_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -75083,10 +75040,10 @@ _sk_load_bgra_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b280 <_sk_load_bgra_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call b284 <_sk_load_bgra_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b2a6 <_sk_load_bgra_sse2_lowp+0x56>
+ .byte 119,32 // ja b2aa <_sk_load_bgra_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -75095,14 +75052,14 @@ _sk_load_bgra_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp b2ef <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,73 // jmp b2f3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp b2ef <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,61 // jmp b2f3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp b2ef <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,43 // jmp b2f3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -75119,7 +75076,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,96,33,0,0 // movdqa 0x2160(%edi),%xmm5
+ .byte 102,15,111,175,76,33,0,0 // movdqa 0x214c(%edi),%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -75199,10 +75156,10 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b40d <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call b411 <_sk_load_bgra_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b433 <_sk_load_bgra_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja b437 <_sk_load_bgra_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -75211,14 +75168,14 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp b47c <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp b480 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp b47c <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp b480 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp b47c <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp b480 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -75235,7 +75192,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,211,31,0,0 // movdqa 0x1fd3(%edi),%xmm2
+ .byte 102,15,111,151,191,31,0,0 // movdqa 0x1fbf(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -75329,19 +75286,19 @@ _sk_store_bgra_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call b5d8 <_sk_store_bgra_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call b5dc <_sk_store_bgra_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja b5f5 <_sk_store_bgra_sse2_lowp+0x91>
+ .byte 119,19 // ja b5f9 <_sk_store_bgra_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp b652 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,93 // jmp b656 <_sk_store_bgra_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp b652 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,80 // jmp b656 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -75349,7 +75306,7 @@ _sk_store_bgra_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp b652 <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,48 // jmp b656 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -75386,7 +75343,7 @@ _sk_store_bgra_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne b69e <_sk_store_bgra_sse2_lowp+0x13a>
+ .byte 117,0 // jne b6a2 <_sk_store_bgra_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -75421,10 +75378,10 @@ _sk_load_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b6e7 <_sk_load_565_sse2_lowp+0x3b>
+ .byte 232,0,0,0,0 // call b6eb <_sk_load_565_sse2_lowp+0x3b>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja b709 <_sk_load_565_sse2_lowp+0x5d>
+ .byte 119,28 // ja b70d <_sk_load_565_sse2_lowp+0x5d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,245,0,0,0 // mov 0xf5(%esi,%ecx,4),%ecx
@@ -75432,14 +75389,14 @@ _sk_load_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,59 // jmp b744 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,59 // jmp b748 <_sk_load_565_sse2_lowp+0x98>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
- .byte 235,52 // jmp b744 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,52 // jmp b748 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 243,15,16,12,123 // movss (%ebx,%edi,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,30 // jmp b744 <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,30 // jmp b748 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0
.byte 102,15,196,68,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0
@@ -75447,11 +75404,11 @@ _sk_load_565_sse2_lowp:
.byte 102,15,18,4,123 // movlpd (%ebx,%edi,2),%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,190,57,29,0,0 // pand 0x1d39(%esi),%xmm7
+ .byte 102,15,219,190,37,29,0,0 // pand 0x1d25(%esi),%xmm7
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,142,73,29,0,0 // pand 0x1d49(%esi),%xmm1
- .byte 102,15,111,150,89,29,0,0 // movdqa 0x1d59(%esi),%xmm2
+ .byte 102,15,219,142,53,29,0,0 // pand 0x1d35(%esi),%xmm1
+ .byte 102,15,111,150,69,29,0,0 // movdqa 0x1d45(%esi),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -75473,7 +75430,7 @@ _sk_load_565_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,249,28,0,0 // movaps 0x1cf9(%esi),%xmm3
+ .byte 15,40,158,229,28,0,0 // movaps 0x1ce5(%esi),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
@@ -75519,10 +75476,10 @@ _sk_load_565_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b823 <_sk_load_565_dst_sse2_lowp+0x2b>
+ .byte 232,0,0,0,0 // call b827 <_sk_load_565_dst_sse2_lowp+0x2b>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja b845 <_sk_load_565_dst_sse2_lowp+0x4d>
+ .byte 119,28 // ja b849 <_sk_load_565_dst_sse2_lowp+0x4d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
@@ -75530,14 +75487,14 @@ _sk_load_565_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp b880 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,59 // jmp b884 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp b880 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,52 // jmp b884 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp b880 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,30 // jmp b884 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -75545,11 +75502,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,219,183,253,27,0,0 // pand 0x1bfd(%edi),%xmm6
+ .byte 102,15,219,183,233,27,0,0 // pand 0x1be9(%edi),%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,175,13,28,0,0 // pand 0x1c0d(%edi),%xmm5
- .byte 102,15,111,191,29,28,0,0 // movdqa 0x1c1d(%edi),%xmm7
+ .byte 102,15,219,175,249,27,0,0 // pand 0x1bf9(%edi),%xmm5
+ .byte 102,15,111,191,9,28,0,0 // movdqa 0x1c09(%edi),%xmm7
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
@@ -75562,7 +75519,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,215,2 // psrlw $0x2,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,183,189,27,0,0 // movaps 0x1bbd(%edi),%xmm6
+ .byte 15,40,183,169,27,0,0 // movaps 0x1ba9(%edi),%xmm6
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 139,125,20 // mov 0x14(%ebp),%edi
.byte 137,124,36,12 // mov %edi,0xc(%esp)
@@ -75607,15 +75564,15 @@ _sk_store_565_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call b94a <_sk_store_565_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call b94e <_sk_store_565_sse2_lowp+0x12>
.byte 95 // pop %edi
.byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,15,219,151,6,27,0,0 // pand 0x1b06(%edi),%xmm2
+ .byte 102,15,219,151,242,26,0,0 // pand 0x1af2(%edi),%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,219,183,22,27,0,0 // pand 0x1b16(%edi),%xmm6
+ .byte 102,15,219,183,2,27,0,0 // pand 0x1b02(%edi),%xmm6
.byte 102,15,235,242 // por %xmm2,%xmm6
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,3 // psrlw $0x3,%xmm2
@@ -75634,19 +75591,19 @@ _sk_store_565_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja b9c2 <_sk_store_565_sse2_lowp+0x8a>
+ .byte 119,22 // ja b9c6 <_sk_store_565_sse2_lowp+0x8a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
.byte 255,231 // jmp *%edi
.byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp b9fd <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,59 // jmp ba01 <_sk_store_565_sse2_lowp+0xc5>
.byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp b9fd <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,52 // jmp ba01 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
.byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
.byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp b9fd <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,35 // jmp ba01 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
.byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
.byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
@@ -75708,10 +75665,10 @@ _sk_load_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ba92 <_sk_load_a8_sse2_lowp+0x3a>
+ .byte 232,0,0,0,0 // call ba96 <_sk_load_a8_sse2_lowp+0x3a>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja bab4 <_sk_load_a8_sse2_lowp+0x5c>
+ .byte 119,28 // ja bab8 <_sk_load_a8_sse2_lowp+0x5c>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
@@ -75719,10 +75676,10 @@ _sk_load_a8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp bb0e <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,90 // jmp bb12 <_sk_load_a8_sse2_lowp+0xb6>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp bb0e <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,79 // jmp bb12 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -75730,7 +75687,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp bb0e <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,47 // jmp bb12 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -75741,7 +75698,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 102,15,219,159,78,25,0,0 // pand 0x194e(%edi),%xmm3
+ .byte 102,15,219,159,58,25,0,0 // pand 0x193a(%edi),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
@@ -75796,10 +75753,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bb9d <_sk_load_a8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call bba1 <_sk_load_a8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja bbbf <_sk_load_a8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja bbc3 <_sk_load_a8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -75807,10 +75764,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp bc19 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp bc1d <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp bc19 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp bc1d <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -75818,7 +75775,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp bc19 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp bc1d <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -75829,7 +75786,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,67,24,0,0 // pand 0x1843(%edi),%xmm4
+ .byte 102,15,219,167,47,24,0,0 // pand 0x182f(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
.byte 102,15,239,228 // pxor %xmm4,%xmm4
@@ -75886,32 +75843,32 @@ _sk_store_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bcb5 <_sk_store_a8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call bcb9 <_sk_store_a8_sse2_lowp+0x39>
.byte 91 // pop %ebx
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja bcd5 <_sk_store_a8_sse2_lowp+0x59>
+ .byte 119,26 // ja bcd9 <_sk_store_a8_sse2_lowp+0x59>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
.byte 1,217 // add %ebx,%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp bd5d <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,111,163,43,23,0,0 // movdqa 0x172b(%ebx),%xmm4
+ .byte 233,136,0,0,0 // jmp bd61 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 102,15,111,163,23,23,0,0 // movdqa 0x1717(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp bd5d <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,109 // jmp bd61 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
- .byte 102,15,111,163,43,23,0,0 // movdqa 0x172b(%ebx),%xmm4
+ .byte 102,15,111,163,23,23,0,0 // movdqa 0x1717(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,225 // movd %xmm4,%ecx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp bd5d <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,70 // jmp bd61 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -75921,7 +75878,7 @@ _sk_store_a8_sse2_lowp:
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,111,163,43,23,0,0 // movdqa 0x172b(%ebx),%xmm4
+ .byte 102,15,111,163,23,23,0,0 // movdqa 0x1717(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1)
@@ -75955,7 +75912,7 @@ _sk_store_a8_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 0,125,0 // add %bh,0x0(%ebp)
.byte 0,0 // add %al,(%eax)
- .byte 116,0 // je bda6 <_sk_store_a8_sse2_lowp+0x12a>
+ .byte 116,0 // je bdaa <_sk_store_a8_sse2_lowp+0x12a>
.byte 0,0 // add %al,(%eax)
.byte 107,0,0 // imul $0x0,(%eax),%eax
.byte 0,98,0 // add %ah,0x0(%edx)
@@ -75985,10 +75942,10 @@ _sk_load_g8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bde9 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call bded <_sk_load_g8_sse2_lowp+0x39>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja be0b <_sk_load_g8_sse2_lowp+0x5b>
+ .byte 119,28 // ja be0f <_sk_load_g8_sse2_lowp+0x5b>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,199,0,0,0 // mov 0xc7(%esi,%ecx,4),%ecx
@@ -75996,10 +75953,10 @@ _sk_load_g8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp be65 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,90 // jmp be69 <_sk_load_g8_sse2_lowp+0xb5>
.byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp be65 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,79 // jmp be69 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
@@ -76007,7 +75964,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp be65 <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,47 // jmp be69 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
@@ -76018,7 +75975,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 102,15,219,134,247,21,0,0 // pand 0x15f7(%esi),%xmm0
+ .byte 102,15,219,134,227,21,0,0 // pand 0x15e3(%esi),%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
@@ -76029,7 +75986,7 @@ _sk_load_g8_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,247,21,0,0 // movaps 0x15f7(%esi),%xmm3
+ .byte 15,40,158,227,21,0,0 // movaps 0x15e3(%esi),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -76072,10 +76029,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bef5 <_sk_load_g8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call bef9 <_sk_load_g8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja bf17 <_sk_load_g8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja bf1b <_sk_load_g8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -76083,10 +76040,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp bf71 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp bf75 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp bf71 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp bf75 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76094,7 +76051,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp bf71 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp bf75 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76105,9 +76062,9 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,235,20,0,0 // pand 0x14eb(%edi),%xmm4
+ .byte 102,15,219,167,215,20,0,0 // pand 0x14d7(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,175,235,20,0,0 // movaps 0x14eb(%edi),%xmm5
+ .byte 15,40,175,215,20,0,0 // movaps 0x14d7(%edi),%xmm5
.byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
.byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
.byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
@@ -76148,7 +76105,7 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call bfe5 <_sk_luminance_to_alpha_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call bfe9 <_sk_luminance_to_alpha_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -76158,10 +76115,10 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 102,15,213,128,139,20,0,0 // pmullw 0x148b(%eax),%xmm0
- .byte 102,15,213,136,155,20,0,0 // pmullw 0x149b(%eax),%xmm1
+ .byte 102,15,213,128,119,20,0,0 // pmullw 0x1477(%eax),%xmm0
+ .byte 102,15,213,136,135,20,0,0 // pmullw 0x1487(%eax),%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,152,171,20,0,0 // pmullw 0x14ab(%eax),%xmm3
+ .byte 102,15,213,152,151,20,0,0 // pmullw 0x1497(%eax),%xmm3
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 141,71,4 // lea 0x4(%edi),%eax
@@ -76192,15 +76149,15 @@ _sk_scale_1_float_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call c06e <_sk_scale_1_float_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c072 <_sk_scale_1_float_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
.byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,89,166,54,20,0,0 // mulss 0x1436(%esi),%xmm4
- .byte 243,15,88,166,50,20,0,0 // addss 0x1432(%esi),%xmm4
+ .byte 243,15,89,166,34,20,0,0 // mulss 0x1422(%esi),%xmm4
+ .byte 243,15,88,166,30,20,0,0 // addss 0x141e(%esi),%xmm4
.byte 243,15,44,252 // cvttss2si %xmm4,%edi
.byte 102,15,110,239 // movd %edi,%xmm5
.byte 139,125,20 // mov 0x14(%ebp),%edi
@@ -76213,7 +76170,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,213,213 // pmullw %xmm5,%xmm2
.byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,111,174,114,19,0,0 // movdqa 0x1372(%esi),%xmm5
+ .byte 102,15,111,174,94,19,0,0 // movdqa 0x135e(%esi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,15,253,213 // paddw %xmm5,%xmm2
@@ -76252,19 +76209,19 @@ _sk_lerp_1_float_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call c13c <_sk_lerp_1_float_sse2_lowp+0x1d>
+ .byte 232,0,0,0,0 // call c140 <_sk_lerp_1_float_sse2_lowp+0x1d>
.byte 89 // pop %ecx
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
.byte 243,15,16,50 // movss (%edx),%xmm6
- .byte 243,15,89,177,104,19,0,0 // mulss 0x1368(%ecx),%xmm6
- .byte 243,15,88,177,100,19,0,0 // addss 0x1364(%ecx),%xmm6
+ .byte 243,15,89,177,84,19,0,0 // mulss 0x1354(%ecx),%xmm6
+ .byte 243,15,88,177,80,19,0,0 // addss 0x1350(%ecx),%xmm6
.byte 243,15,44,214 // cvttss2si %xmm6,%edx
.byte 102,15,110,242 // movd %edx,%xmm6
.byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
.byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,111,129,164,18,0,0 // movdqa 0x12a4(%ecx),%xmm0
+ .byte 102,15,111,129,144,18,0,0 // movdqa 0x1290(%ecx),%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
@@ -76337,10 +76294,10 @@ _sk_scale_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c265 <_sk_scale_u8_sse2_lowp+0x31>
+ .byte 232,0,0,0,0 // call c269 <_sk_scale_u8_sse2_lowp+0x31>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c287 <_sk_scale_u8_sse2_lowp+0x53>
+ .byte 119,28 // ja c28b <_sk_scale_u8_sse2_lowp+0x53>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,3,1,0,0 // mov 0x103(%edi,%ecx,4),%ecx
@@ -76348,10 +76305,10 @@ _sk_scale_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp c2e1 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,90 // jmp c2e5 <_sk_scale_u8_sse2_lowp+0xad>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp c2e1 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,79 // jmp c2e5 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76359,7 +76316,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp c2e1 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,47 // jmp c2e5 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76370,9 +76327,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,123,17,0,0 // pand 0x117b(%edi),%xmm4
+ .byte 102,15,219,167,103,17,0,0 // pand 0x1167(%edi),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,175,123,17,0,0 // movdqa 0x117b(%edi),%xmm5
+ .byte 102,15,111,175,103,17,0,0 // movdqa 0x1167(%edi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
@@ -76439,10 +76396,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c3b2 <_sk_lerp_u8_sse2_lowp+0x2e>
+ .byte 232,0,0,0,0 // call c3b6 <_sk_lerp_u8_sse2_lowp+0x2e>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c3d4 <_sk_lerp_u8_sse2_lowp+0x50>
+ .byte 119,28 // ja c3d8 <_sk_lerp_u8_sse2_lowp+0x50>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,74,1,0,0 // mov 0x14a(%edi,%ecx,4),%ecx
@@ -76450,10 +76407,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp c42e <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,90 // jmp c432 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp c42e <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,79 // jmp c432 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -76461,7 +76418,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp c42e <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,47 // jmp c432 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -76472,8 +76429,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,220 // movsd %xmm4,%xmm3
- .byte 102,15,219,159,46,16,0,0 // pand 0x102e(%edi),%xmm3
- .byte 102,15,111,183,46,16,0,0 // movdqa 0x102e(%edi),%xmm6
+ .byte 102,15,219,159,26,16,0,0 // pand 0x101a(%edi),%xmm3
+ .byte 102,15,111,183,26,16,0,0 // movdqa 0x101a(%edi),%xmm6
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,239,230 // pxor %xmm6,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
@@ -76562,10 +76519,10 @@ _sk_scale_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c55b <_sk_scale_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call c55f <_sk_scale_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c57d <_sk_scale_565_sse2_lowp+0x65>
+ .byte 119,28 // ja c581 <_sk_scale_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,1,0,0 // mov 0x1f9(%edi,%ecx,4),%ecx
@@ -76573,14 +76530,14 @@ _sk_scale_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp c5b8 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp c5bc <_sk_scale_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp c5b8 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp c5bc <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp c5b8 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp c5bc <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -76588,11 +76545,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,197,14,0,0 // pand 0xec5(%edi),%xmm1
+ .byte 102,15,219,143,177,14,0,0 // pand 0xeb1(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,213,14,0,0 // pand 0xed5(%edi),%xmm2
- .byte 102,15,111,135,229,14,0,0 // movdqa 0xee5(%edi),%xmm0
+ .byte 102,15,219,151,193,14,0,0 // pand 0xec1(%edi),%xmm2
+ .byte 102,15,111,135,209,14,0,0 // movdqa 0xed1(%edi),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -76605,7 +76562,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,113,208,2 // psrlw $0x2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,167,165,14,0,0 // movdqa 0xea5(%edi),%xmm4
+ .byte 102,15,111,167,145,14,0,0 // movdqa 0xe91(%edi),%xmm4
.byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
.byte 102,15,239,244 // pxor %xmm4,%xmm6
.byte 102,15,239,252 // pxor %xmm4,%xmm7
@@ -76648,7 +76605,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,213,101,136 // pmullw -0x78(%ebp),%xmm4
.byte 102,15,213,125,184 // pmullw -0x48(%ebp),%xmm7
- .byte 102,15,111,135,133,14,0,0 // movdqa 0xe85(%edi),%xmm0
+ .byte 102,15,111,135,113,14,0,0 // movdqa 0xe71(%edi),%xmm0
.byte 102,15,253,216 // paddw %xmm0,%xmm3
.byte 102,15,253,208 // paddw %xmm0,%xmm2
.byte 102,15,253,224 // paddw %xmm0,%xmm4
@@ -76725,10 +76682,10 @@ _sk_lerp_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c7b3 <_sk_lerp_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call c7b7 <_sk_lerp_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c7d5 <_sk_lerp_565_sse2_lowp+0x65>
+ .byte 119,28 // ja c7d9 <_sk_lerp_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,73,2,0,0 // mov 0x249(%edi,%ecx,4),%ecx
@@ -76736,14 +76693,14 @@ _sk_lerp_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp c810 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp c814 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp c810 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp c814 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp c810 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp c814 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -76751,11 +76708,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,109,12,0,0 // pand 0xc6d(%edi),%xmm1
+ .byte 102,15,219,143,89,12,0,0 // pand 0xc59(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,125,12,0,0 // pand 0xc7d(%edi),%xmm2
- .byte 102,15,111,175,141,12,0,0 // movdqa 0xc8d(%edi),%xmm5
+ .byte 102,15,219,151,105,12,0,0 // pand 0xc69(%edi),%xmm2
+ .byte 102,15,111,175,121,12,0,0 // movdqa 0xc79(%edi),%xmm5
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -76768,7 +76725,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,113,213,2 // psrlw $0x2,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
.byte 102,15,127,109,216 // movdqa %xmm5,-0x28(%ebp)
- .byte 102,15,111,167,77,12,0,0 // movdqa 0xc4d(%edi),%xmm4
+ .byte 102,15,111,167,57,12,0,0 // movdqa 0xc39(%edi),%xmm4
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,239,204 // pxor %xmm4,%xmm1
@@ -76809,7 +76766,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,235,249 // por %xmm1,%xmm7
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,213,93,168 // pmullw -0x58(%ebp),%xmm3
- .byte 102,15,111,143,45,12,0,0 // movdqa 0xc2d(%edi),%xmm1
+ .byte 102,15,111,143,25,12,0,0 // movdqa 0xc19(%edi),%xmm1
.byte 102,15,239,193 // pxor %xmm1,%xmm0
.byte 102,15,111,101,24 // movdqa 0x18(%ebp),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -76905,11 +76862,11 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call ca57 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ .byte 232,0,0,0,0 // call ca5b <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja ca7d <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ .byte 119,29 // ja ca81 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 139,132,145,77,2,0,0 // mov 0x24d(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -76917,14 +76874,14 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp cac6 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,73 // jmp caca <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp cac6 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,61 // jmp caca <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp cac6 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,43 // jmp caca <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -76950,7 +76907,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,243 // packssdw %xmm3,%xmm6
- .byte 102,15,111,153,137,9,0,0 // movdqa 0x989(%ecx),%xmm3
+ .byte 102,15,111,153,117,9,0,0 // movdqa 0x975(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -77002,18 +76959,18 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja cc07 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ .byte 119,16 // ja cc0b <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
.byte 3,140,145,105,2,0,0 // add 0x269(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp cc47 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,64 // jmp cc4b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp cc47 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,51 // jmp cc4b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp cc47 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,33 // jmp cc4b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -77076,15 +77033,6 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 192,63,0 // sarb $0x0,(%edi)
- .byte 0,32 // add %ah,(%eax)
- .byte 64 // inc %eax
- .byte 0,0 // add %al,(%eax)
- .byte 96 // pusha
- .byte 64 // inc %eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
@@ -77142,11 +77090,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne cdc8 <.literal16+0xe8>
+ .byte 224,64 // loopne cdb8 <.literal16+0xd8>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne cdcc <.literal16+0xec>
+ .byte 224,64 // loopne cdbc <.literal16+0xdc>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne cdd0 <.literal16+0xf0>
+ .byte 224,64 // loopne cdc0 <.literal16+0xe0>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -77157,16 +77105,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdf1 <.literal16+0x111>
+ .byte 225,61 // loope cde1 <.literal16+0x101>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdf5 <.literal16+0x115>
+ .byte 225,61 // loope cde5 <.literal16+0x105>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdf9 <.literal16+0x119>
+ .byte 225,61 // loope cde9 <.literal16+0x109>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdfd <.literal16+0x11d>
+ .byte 225,61 // loope cded <.literal16+0x10d>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -77176,13 +77124,13 @@ BALIGN16
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ce17 <.literal16+0x137>
+ .byte 127,67 // jg ce07 <.literal16+0x127>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ce1b <.literal16+0x13b>
+ .byte 127,67 // jg ce0b <.literal16+0x12b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ce1f <.literal16+0x13f>
+ .byte 127,67 // jg ce0f <.literal16+0x12f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg ce23 <.literal16+0x143>
+ .byte 127,67 // jg ce13 <.literal16+0x133>
.byte 0,0 // add %al,(%eax)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
.byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
@@ -77338,13 +77286,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne cf39 <.literal16+0x259>
+ .byte 224,7 // loopne cf29 <.literal16+0x249>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne cf3d <.literal16+0x25d>
+ .byte 224,7 // loopne cf2d <.literal16+0x24d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne cf41 <.literal16+0x261>
+ .byte 224,7 // loopne cf31 <.literal16+0x251>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne cf45 <.literal16+0x265>
+ .byte 224,7 // loopne cf35 <.literal16+0x255>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -77393,17 +77341,17 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg cfa4 <.literal16+0x2c4>
+ .byte 127,0 // jg cf94 <.literal16+0x2b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg cfa8 <.literal16+0x2c8>
+ .byte 127,0 // jg cf98 <.literal16+0x2b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg cfac <.literal16+0x2cc>
+ .byte 127,0 // jg cf9c <.literal16+0x2bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg cfb0 <.literal16+0x2d0>
- .byte 119,115 // ja d025 <.literal16+0x345>
+ .byte 127,0 // jg cfa0 <.literal16+0x2c0>
+ .byte 119,115 // ja d015 <.literal16+0x335>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -77414,7 +77362,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne cf89 <.literal16+0x2a9>
+ .byte 117,191 // jne cf79 <.literal16+0x299>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -77430,7 +77378,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a40fc6 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a345ae>
+ .byte 233,220,63,163,233 // jmp e9a40fb6 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a3459a>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,81 // mov %eax,0x513fdce9
.byte 140,242 // mov %?,%edx
@@ -77526,16 +77474,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d113 <.literal16+0x433>
+ .byte 118,63 // jbe d103 <.literal16+0x423>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d117 <.literal16+0x437>
+ .byte 118,63 // jbe d107 <.literal16+0x427>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d11b <.literal16+0x43b>
+ .byte 118,63 // jbe d10b <.literal16+0x42b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d11f <.literal16+0x43f>
+ .byte 118,63 // jbe d10f <.literal16+0x42f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -77561,13 +77509,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d156 <.literal16+0x476>
+ .byte 124,66 // jl d146 <.literal16+0x466>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d15a <.literal16+0x47a>
+ .byte 124,66 // jl d14a <.literal16+0x46a>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d15e <.literal16+0x47e>
+ .byte 124,66 // jl d14e <.literal16+0x46e>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d162 <.literal16+0x482>
+ .byte 124,66 // jl d152 <.literal16+0x472>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -77613,25 +77561,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d1e5 <.literal16+0x505>
+ .byte 112,65 // jo d1d5 <.literal16+0x4f5>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d1e9 <.literal16+0x509>
+ .byte 112,65 // jo d1d9 <.literal16+0x4f9>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d1ed <.literal16+0x50d>
+ .byte 112,65 // jo d1dd <.literal16+0x4fd>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d1f1 <.literal16+0x511>
+ .byte 112,65 // jo d1e1 <.literal16+0x501>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 255 // (bad)
- .byte 127,0 // jg d1c3 <.literal16+0x4e3>
+ .byte 127,0 // jg d1b3 <.literal16+0x4d3>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg d1c7 <.literal16+0x4e7>
+ .byte 127,0 // jg d1b7 <.literal16+0x4d7>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg d1cb <.literal16+0x4eb>
+ .byte 127,0 // jg d1bb <.literal16+0x4db>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg d1cf <.literal16+0x4ef>
+ .byte 127,0 // jg d1bf <.literal16+0x4df>
.byte 0,0 // add %al,(%eax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%eax)
@@ -77657,13 +77605,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg d208 <.literal16+0x528>
+ .byte 127,255 // jg d1f8 <.literal16+0x518>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg d20c <.literal16+0x52c>
+ .byte 127,255 // jg d1fc <.literal16+0x51c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg d211 <.literal16+0x531>
+ .byte 127,0 // jg d201 <.literal16+0x521>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
.byte 56,0 // cmp %al,(%eax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
@@ -77677,13 +77625,13 @@ BALIGN16
.byte 0,255 // add %bh,%bh
.byte 255,0 // incl (%eax)
.byte 255 // (bad)
- .byte 127,71 // jg d27b <.literal16+0x59b>
+ .byte 127,71 // jg d26b <.literal16+0x58b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg d27f <.literal16+0x59f>
+ .byte 127,71 // jg d26f <.literal16+0x58f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg d283 <.literal16+0x5a3>
+ .byte 127,71 // jg d273 <.literal16+0x593>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg d287 <.literal16+0x5a7>
+ .byte 127,71 // jg d277 <.literal16+0x597>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -77736,7 +77684,7 @@ BALIGN16
.byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js d2ec <.literal16+0x60c>
+ .byte 120,57 // js d2dc <.literal16+0x5fc>
.byte 64 // inc %eax
.byte 18,120,57 // adc 0x39(%eax),%bh
.byte 64 // inc %eax
@@ -77807,13 +77755,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb d39e <.literal16+0x6be>
+ .byte 114,28 // jb d38e <.literal16+0x6ae>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt d3a2 <.literal16+0x6c2>
+ .byte 62,114,28 // jb,pt d392 <.literal16+0x6b2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt d3a6 <.literal16+0x6c6>
+ .byte 62,114,28 // jb,pt d396 <.literal16+0x6b6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt d3aa <.literal16+0x6ca>
+ .byte 62,114,28 // jb,pt d39a <.literal16+0x6ba>
.byte 199 // (bad)
.byte 62,85 // ds push %ebp
.byte 85 // push %ebp
@@ -77834,13 +77782,13 @@ BALIGN16
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi)
.byte 99,61,57,142,99,61 // arpl %di,0x3d638e39
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi)
- .byte 127,63 // jg d403 <.literal16+0x723>
- .byte 114,249 // jb d3bf <.literal16+0x6df>
- .byte 127,63 // jg d407 <.literal16+0x727>
- .byte 114,249 // jb d3c3 <.literal16+0x6e3>
- .byte 127,63 // jg d40b <.literal16+0x72b>
- .byte 114,249 // jb d3c7 <.literal16+0x6e7>
- .byte 127,63 // jg d40f <.literal16+0x72f>
+ .byte 127,63 // jg d3f3 <.literal16+0x713>
+ .byte 114,249 // jb d3af <.literal16+0x6cf>
+ .byte 127,63 // jg d3f7 <.literal16+0x717>
+ .byte 114,249 // jb d3b3 <.literal16+0x6d3>
+ .byte 127,63 // jg d3fb <.literal16+0x71b>
+ .byte 114,249 // jb d3b7 <.literal16+0x6d7>
+ .byte 127,63 // jg d3ff <.literal16+0x71f>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
@@ -77908,14 +77856,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne d461 <.literal16+0x781>
- .byte 224,255 // loopne d463 <.literal16+0x783>
- .byte 224,255 // loopne d465 <.literal16+0x785>
- .byte 224,255 // loopne d467 <.literal16+0x787>
- .byte 224,255 // loopne d469 <.literal16+0x789>
- .byte 224,255 // loopne d46b <.literal16+0x78b>
- .byte 224,255 // loopne d46d <.literal16+0x78d>
- .byte 224,255 // loopne d46f <.literal16+0x78f>
+ .byte 224,255 // loopne d451 <.literal16+0x771>
+ .byte 224,255 // loopne d453 <.literal16+0x773>
+ .byte 224,255 // loopne d455 <.literal16+0x775>
+ .byte 224,255 // loopne d457 <.literal16+0x777>
+ .byte 224,255 // loopne d459 <.literal16+0x779>
+ .byte 224,255 // loopne d45b <.literal16+0x77b>
+ .byte 224,255 // loopne d45d <.literal16+0x77d>
+ .byte 224,255 // loopne d45f <.literal16+0x77f>
.byte 54,0,54 // add %dh,%ss:(%esi)
.byte 0,54 // add %dh,(%esi)
.byte 0,54 // add %dh,(%esi)
@@ -77939,5 +77887,5 @@ BALIGN4
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg d4eb <_sk_srcover_rgba_8888_sse2_lowp+0xad3>
+ .byte 127,67 // jg d4db <_sk_srcover_rgba_8888_sse2_lowp+0xabf>
#endif